Inteligență artificială: Diferență între versiuni

De la Wikipedia, enciclopedia liberă
Conținut șters Conținut adăugat
m Revenit asupra a 1 modificare a lui 213.233.110.20 (D) identificată ca vandalism la ultima versiune a lui Alex Nico. (TW)
Etichetă: Anulare
Creată prin traducerea paginii „Artificial intelligence
Linia 1: Linia 1:
[[Fișier:ArtificialFictionBrain.png|155px|right]]
'''Inteligența artificială''' este un termen tehnic provenit din limba [[engleză]]: ''Artificial Intelligence'', [[acronim|prescurtat]] ''AI'', care desemnează un [[domeniu de cercetare]] în cadrul [[informatică|informaticii]]. În vorbirea curentă este un produs rezultat în urma desfășurării acestei activități.


În [[informatică]], '''inteligența artificială''' ('''IA''') este [[Inteligență|inteligența]] expusă de [[Mașină|mașini]], spre deosebire de '''inteligența naturală''', expusă de oameni și de unele animale. Informatica definește cercetarea IA ca studiu al „[[Intelligent agent|agenților inteligenți]]”: orice dispozitiv care își percepe mediul și efectuează acțiuni care maximizează șansa de a-și atinge cu succes obiectivele.<ref name="Definition of AI"> Definiția AI ca studiu al [[Intelligent agents|agenților inteligenți]] : </ref> Mai exact, [[Andreas Kaplan|Kaplan]] și Haenlein definesc IA ca fiind „capacitatea unui sistem de a interpreta corect datele externe, de a învăța din astfel de date și de a folosi ceea ce a învățat pentru a-și atinge obiective și sarcini specifice printr-o adaptare flexibilă”.<ref name="sciencedirect.com"> [https://www.sciencedirect.com/science/article/pii/S0007681318301393 Kaplan Andreas; Michael Haenlein (2018) Siri, Siri în mâna mea, cine este cel mai faurător din țară? Cu privire la interpretările, ilustrațiile și implicațiile inteligenței artificiale, orizonturile de afaceri, 62 (1)] </ref> Termenul „inteligență artificială” este utilizat colocvial pentru a descrie mașinile care imită funcțiile „cognitive” pe care le asociază oamenii cu alte [[Minte|minți umane]], cum ar fi „învățarea” și „rezolvarea problemelor”.{{sfn|Russell|Norvig|2009|p=2}}
Definiția cea mai acceptată a inteligenței artificiale a fost dată de [[John McCarthy]] în [[1955]]: “o mașină care se comportă într-un mod care ar putea fi considerat [[inteligență|inteligent]], dacă ar fi vorba de un om”. Mai amplu, inteligența artificială vizează studiul și designul [[Agent inteligent|agenților inteligenți]], sisteme care percep mediul înconjurător și maximizează șansele propriului succes prin comportament.<ref>The intelligent agent paradigm:


Întrucât mașinile devin din ce în ce mai capabile, sarcinile considerate a necesita „inteligență” sunt deseori eliminate din definiția IA, un fenomen cunoscut sub numele de [[AI effect|efectul IA]]. O observație în teorema lui Tesler spune că „IA este ceea ce nu a fost încă făcut”.<ref>{{Citat web|url=http://people.cs.georgetown.edu/~maloof/cosc270.f17/cosc270-intro-handout.pdf|nume=Maloof|accessdate=|date=|archiveurl=|first1=Mark|lucrare=georgetown.edu|archivedate=|titlu=Artificial Intelligence: An Introduction, p. 37}}</ref> De exemplu, [[Recunoașterea optică a caracterelor|recunoașterea optică a caracterelor]] este adesea exclusă din domeniul AI, după ce a devenit o tehnologie de rutină.<ref>{{Cite magazine}}</ref> Capacitățile moderne ale mașinilor clasificate în general ca IA includ [[Natural language understanding|înțelegerea vorbirii umane]],{{sfn|Russell|Norvig|2009}} concurarea la cel mai înalt nivel a unor sisteme de [[Joc de strategie|jocuri de strategie]] (cum ar fi [[Șah (joc)|șah]] și [[Go (joc)|go]]),<ref name="bbc-alphago">{{Citat web|url=https://deepmind.com/alpha-go.html|publisher=|archiveurl=https://web.archive.org/web/20160310191926/https://www.deepmind.com/alpha-go.html|archivedate=10 March 2016|titlu=AlphaGo – Google DeepMind}}</ref> [[Autonomous car|autovehiculele autonome]] și rutarea inteligentă în [[Rețea de distribuție de conținut|rețelele de distribuție a conținutului]], și [[Military simulations|simulările militare]].
{{•}}Russell & Norvig 2003, pp. 27, 32–58, 968–972


Împrumutând din literatura de [[management]], [[Andreas Kaplan|Kaplan]] și Haenlein clasifica inteligență artificială în trei tipuri diferite de sisteme IA: inteligență artificială analitică, inspirată de om, și umanizată.<ref name="sciencedirect.com"> [https://www.sciencedirect.com/science/article/pii/S0007681318301393 Kaplan Andreas; Michael Haenlein (2018) Siri, Siri în mâna mea, cine este cel mai faurător din țară? Cu privire la interpretările, ilustrațiile și implicațiile inteligenței artificiale, orizonturile de afaceri, 62 (1)] </ref> IA analitică are doar unele caracteristici compatibile cu [[Cognition|inteligența cognitivă]]; ea generează o reprezentare cognitivă a lumii și utilizează învățarea bazată pe experiențe anterioare pentru a informa deciziile viitoare. IA inspirată de om are elemente din inteligența cognitivă și [[Emotional intelligence|emoțională]]; înțelegerea emoțiilor umane, în plus față de elementele cognitive, și luarea în considerare a acestora în [[Decision making|luarea deciziilor]]. IA umanizată prezintă caracteristicile tuturor tipurilor de competențe (de exemplu, inteligența cognitivă, emoțională și [[Social intelligence|socială]]), este capabilă să fie [[Conștiința de sine|conștientă de sine]] atât ca atare, cât și în interacțiunile cu ceilalți.
{{•}}Poole, Mackworth & Goebel 1998, pp. 7–21


Inteligența artificială a fost fondată ca disciplină academică în 1956, și de atunci a trecut mai multe valuri de optimism,<ref name="Optimism of early AI"> Optimismul AI timpuriu: </ref><ref name="AI in the 80s"> Boom-ul anilor 1980: creșterea [[Expert systems|sistemelor expert]] , [[Fifth generation computer|Proiectul de generație a cincea]] , [[Alvey]] , [[Microelectronics and Computer Technology Corporation|MCC]] , [[Strategic Computing Initiative|SCI]] : </ref> urmate de dezamăgiri și pierderi de fonduri (cunoscute sub numele de „ierni ale IA”),<ref name="First AI winter"> Primul [[AI Winter|AI de iarnă]] , [[Mansfield Amendment|amendamentul Mansfield]] , [[Lighthill report|raportul Lighthill]] </ref><ref name="Second AI winter"> A doua [[AI winter|iarnă AI]] : </ref> urmate și ele de noi abordări, succes și reînnoirea finanțării.<ref name="AI in the 80s" /><ref name="AI in 2000s"> AI devine extrem de reușită la începutul secolului XXI </ref> Pentru cea mai mare parte a istoriei sale, cercetarea IA a fost împărțită în subdomenii care adesea nu au reușit să comunice între ele.<ref name="Fragmentation of AI"> Pamela [[Artificial intelligence#CITEREFMcCorduck2004|McCorduck (2004]] , p. &nbsp; 424) scrie despre "distrugerea gravă a AI în subdomenii - viziune, limbaj natural, teorie a deciziilor, algoritmi genetici, robotică &nbsp; ... și cu subcâmpuri proprii - care nu ar avea nimic de spus unul pe celălalt ". </ref> Aceste subdomenii se bazează pe considerații tehnice, cum ar fi obiective specifice (de exemplu, „[[Robotică|robotica]]” sau „învățarea automată”),<ref name="Problems of AI"> Această listă de trăsături inteligente se bazează pe subiectele abordate de manualele AI majore, printre care: </ref> utilizarea unor anumite instrumente („logica” sau [[Artificial neural network|rețele neurale artificiale]]) sau pe diferențe filosofice profunde.<ref name="Biological intelligence vs. intelligence in general"> Inteligența biologică vs. inteligența în general: </ref><ref name="Neats vs. scruffies"> [[Neats vs. scruffies]] : </ref><ref name="Symbolic vs. sub-symbolic"> Simbolic vs. AI sub-simbolic: </ref> Subdomeniile se bazau și pe factori sociali (anumite instituții sau activitatea anumitor cercetători). <ref name="Fragmentation of AI" />
{{•}}Luger & Stubblefield 2004, pp. 235–240


Printre problemele (sau obiectivele) tradiționale ale cercetării IA se numără [[Automated reasoning|raționamentul]], [[Knowledge representation|reprezentarea cunoștințelor]], [[Automated planning and scheduling|planificarea]], [[Învățare automată|învățarea]], [[Prelucrarea limbajului natural|prelucrarea limbajului natural]], [[Machine perception|percepția]] și capacitatea de a muta și manipula obiecte.<ref name="Problems of AI"> Această listă de trăsături inteligente se bazează pe subiectele abordate de manualele AI majore, printre care: </ref> [[Artificial general intelligence|Inteligența generală]] se numără printre obiectivele pe termen lung ale domeniului.<ref name="General intelligence"> Inteligența generală ( [[Artificial general intelligence|AI puternică]] ) este discutată în introducerea populară a AI: </ref> Abordările includ [[Inteligență artificială|metode statistice]], [[Inteligență artificială|inteligență computațională]] și [[Inteligență artificială|IA simbolică tradițională]]. În AI se folosesc multe instrumente, între care versiuni de optimizare matematică și de căutare, [[Artificial neural network|rețele neurale artificiale]] și [[Inteligență artificială|metode bazate pe statistici, probabilități și economie]]. Domeniul IA se bazează pe [[informatică]], [[Information engineering (field)|inginerie informațională]], [[matematică]], [[psihologie]], [[lingvistică]], [[filozofie]] și multe alte domenii.
{{•}}Hutter 2005, pp. 125–126


Domeniul a fost întemeiat pe afirmația că [[Human intelligence|inteligența umană]] „poate fi descrisă atât de precis încât poate fi făcută o mașină pentru a o simula”.<ref> Vedeți [[Dartmouth Workshop|propunerea de]] la [[Dartmouth Workshop|Dartmouth]] , sub [[Artificial intelligence#Philosophy|Filosofie]] , de mai jos. </ref> Acest lucru ridică argumente filosofice cu privire la natura [[Minte|minții]] și la etica creării de ființe artificiale dotate cu inteligență umană, care sunt chestiuni care au fost explorate de [[History of AI#AI in myth, fiction and speculation|mit]], [[Artificial intelligence in fiction|ficțiune]] și [[Philosophy of AI|filozofie]] încă din [[Antichitatea|Antichitate]].<ref name="McCorduck's thesis"> Aceasta este o idee centrală a ''mașinilor care gândesc'' [[Pamela McCorduck]] . Ea scrie: "Îmi place să mă gândesc la inteligența artificială ca la apoteoza științifică a unei tradiții culturale venerabile". ( [[Artificial intelligence#CITEREFMcCorduck2004|McCorduck 2004]] , p. &nbsp; 34) "Inteligența artificială într-o formă sau alta este o idee care a pătruns în istoria intelectuală occidentală, un vis în nevoie urgentă de a fi realizat". ( [[Artificial intelligence#CITEREFMcCorduck2004|McCorduck 2004]] , p. &nbsp; xviii) "Istoria noastră este plină de încercări - nerăbdător, amețitor, comic, serios, legendar și real - de a face inteligența artificială, de a reproduce ceea ce ne este esențial - ocolind mijloacele obișnuite. oferind ceea ce atelierele noastre nu au putut, ne-am angajat mult timp în această formă ciudată de autoproducere ". ( [[Artificial intelligence#CITEREFMcCorduck2004|McCorduck 2004]] , p. &nbsp; 3) Ea urmărește dorința înapoi la rădăcinile sale [[Hellenistic|elenistice]] și o numește dorința de a "fortifica zeii". ( [[Artificial intelligence#CITEREFMcCorduck2004|McCorduck 2004]] , p. &nbsp; 340-400) </ref> Unii oameni consideră și că IA ar fi [[Singularitate tehnologică|un pericol pentru omenire]] dacă progresează necontrolat.<ref>{{Citat web|url=https://betanews.com/2016/10/21/artificial-intelligence-stephen-hawking/|date=21 October 2016|archiveurl=https://web.archive.org/web/20170828183930/https://betanews.com/2016/10/21/artificial-intelligence-stephen-hawking/|lucrare=BetaNews|archivedate=28 August 2017|titlu=Stephen Hawking believes AI could be mankind's last accomplishment}}</ref> Alții cred că, spre deosebire de revoluțiile tehnologice anterioare, IA va crea un [[Technological unemployment#21st century|risc de șomaj în masă]]. <ref name="guardian jobs debate">{{Citat știre|title=Will robots create more jobs than they destroy?|url=https://www.theguardian.com/technology/2015/sep/06/will-robots-create-destroy-jobs|prenume=Martin|nume=Ford|data=6 September 2015|accessdate=13 January 2018|nume2=Colvin|prenume2=Geoff|journal=The Guardian}}</ref>
The definition used in this article, in terms of goals, actions, perception and environment, is due to Russell & Norvig (2003). Other definitions also include knowledge and learning as additional criteria.
</ref>


În secolul al XXI-lea, tehnicile de IA au înregistrat o renaștere în urma unor progrese concomitente în [[Computer performance|puterea de calcul]], acumulării de cantități mari de [[Big data|date]], și înțelegerii teoretice; iar tehnicile IA au devenit o parte esențială a [[Technology industry|industriei tehnologice]], ajutând la rezolvarea multor probleme dificile în domeniul informaticii, [[Inginerie software|ingineriei software]] și [[Operations research|cercetării operaționale]].<ref name="AI widely used"> Aplicațiile AI utilizate pe scară largă în spatele scenei: </ref><ref name="AI in 2000s"> AI devine extrem de reușită la începutul secolului XXI </ref>
O trăsătură des întâlnită a inteligenței artificiale este că [[sistem]]ul respectiv este capabil să învețe, cu sau chiar fără ajutoare externe, cu scopul de a se îmbunătăți permanent.


== Istorie ==
Problemele centrale ale cercetării în AI sunt [[Rațiune|rațiunea]], [[Cunoaștere|cunoașterea]], [[Programare și planificare automatizată|planificarea]], [[Procesul de învățare în școală|procesul de învățare]], [[prelucrarea limbajului natural]] (comunicare), [[Percepție|percepția]], precum și manipularea obiectelor fizice.<ref>Lista trăsăturilor inteligenței conform unor lucrări seminale în AI:
[[Fișier:Medeia_and_Talus.png|miniatura| [[Talos]], un [[Automaton|automat]] mitic cu inteligență artificială din Antichitate ]]
[[Artificial being|Ființele artificiale]] capabile de gândire apăreau în antichitate ca tehnici narative<ref name="AI in myth"> AI în mit: </ref> și au fost obișnuite în ficțiune, ca în ''[[Frankenstein (roman)|Frankenstein]]'' al lui [[Mary Shelley]] sau ''[[R.U.R. (Rossum's Universal Robots)|RUR (Rossum's Universal Robots)]]'' al lui [[Karel Čapek]].<ref name="AI in early science fiction"> AI în știința ficțiunii timpurii. </ref> Aceste personaje și destinul lor au ridicat multe din aceleași probleme discutate acum în [[Etica privind inteligența artificială|etica inteligenței artificiale]].<ref name="McCorduck's thesis"> Aceasta este o idee centrală a ''mașinilor care gândesc'' [[Pamela McCorduck]] . Ea scrie: "Îmi place să mă gândesc la inteligența artificială ca la apoteoza științifică a unei tradiții culturale venerabile". ( [[Artificial intelligence#CITEREFMcCorduck2004|McCorduck 2004]] , p. &nbsp; 34) "Inteligența artificială într-o formă sau alta este o idee care a pătruns în istoria intelectuală occidentală, un vis în nevoie urgentă de a fi realizat". ( [[Artificial intelligence#CITEREFMcCorduck2004|McCorduck 2004]] , p. &nbsp; xviii) "Istoria noastră este plină de încercări - nerăbdător, amețitor, comic, serios, legendar și real - de a face inteligența artificială, de a reproduce ceea ce ne este esențial - ocolind mijloacele obișnuite. oferind ceea ce atelierele noastre nu au putut, ne-am angajat mult timp în această formă ciudată de autoproducere ". ( [[Artificial intelligence#CITEREFMcCorduck2004|McCorduck 2004]] , p. &nbsp; 3) Ea urmărește dorința înapoi la rădăcinile sale [[Hellenistic|elenistice]] și o numește dorința de a "fortifica zeii". ( [[Artificial intelligence#CITEREFMcCorduck2004|McCorduck 2004]] , p. &nbsp; 340-400) </ref>


Studiul [[Rațiune|raționamentului „formal”]] (mecanic) a început cu [[Filozof|filozofii]] și matematicienii din Antichitate. Studiul logicii matematice a condus direct la [[Teoria computației|teoria computației]] a lui [[Alan Turing]], care sugera că o mașină, amestecând simboluri simple ca „0” și „1”, ar putea simula orice acțiune de deducție matematică posibilă. Această observație, că calculatoarele numerice pot simula orice proces de raționament formal, este cunoscută sub numele de [[Church–Turing thesis|teza Church-Turing]].<ref name="Formal reasoning"> Raționament formal: </ref> Odată cu descoperirile concurente din [[Neuroștiințe|neurobiologie]], [[Teoria informației|teoria informației]] și [[cibernetică]], cercetătorii au luat în considerare posibilitatea creării unui creier electronic. Turing a sugerat că „dacă un om nu ar putea distinge între răspunsurile unei mașini și cele ale unui om, atunci mașina ar putea fi considerată «inteligentă»”.<ref> "Inteligență artificială." Encyclopedia of Emerging Industries, editat de Lynn M. Pearce, ediția a 6-a, Gale, 2011, pp. 73-80. Gale Virtual Reference Library, http://go.galegroup.com/ps/anonymous?id=GALECX1930200017 . Accesat la 31 martie 2018. </ref> Prima lucrare care este acum recunoscută în general ca fiind de IA a fost „neuronii artificiali” [[Turing-complete|Turing-compleți]] ai lui [[Warren McCullouch|McCullouch]] și [[Walter Pitts|Pitts]].{{sfn|Russell|Norvig|2009|p=16}}
Russell & Norvig 2003


Domeniul cercetării IA s-a născut la un [[Dartmouth workshop|workshop]] la [[Dartmouth College|Colegiul Dartmouth]] în 1956.<ref name="Dartmouth conference"> [[Dartmouth Workshop|Conferința de la Dartmouth]] : </ref> Participantii [[Allen Newell]] ([[Carnegie Mellon University|CMU]]), [[Herbert Simon]] ([[Carnegie Mellon University|CMU]]), [[John McCarthy]] ([[Massachusetts Institute of Technology|MIT]]), [[Marvin Minsky]] ([[Massachusetts Institute of Technology|MIT]]) și [[Arthur Samuel]] ([[IBM]]) au devenit fondatorii și liderii cercetarii IA.<ref name="Hegemony of the Dartmouth conference attendees"> Hegemonia participanților la conferința de la Dartmouth: </ref> Ei și studenții lor au produs programe pe care presa le-a descris ca fiind „uimitoare“:{{sfn|Russell|Norvig|2003|p=18|quote=it was astonishing whenever a computer did anything kind of smartish}} calculatoarele învățau strategii de [[dame]] (c . 1954)<ref> Schaeffer J. (2009) Nu a reușit Samuel să rezolve acel joc? În: Un salt înainte. Springer, Boston, MA </ref> (și până în 1959 ajunseseră să joace mai bine decât media jucătorilor umani),<ref>{{Citat revistă|nume=Samuel|prenume=A. L.|dată=July 1959|titlu=Some Studies in Machine Learning Using the Game of Checkers|journal=IBM Journal of Research and Development|volum=3|număr=3|pagini=210–229|doi=10.1147/rd.33.0210}}</ref> să rezolve probleme de algebră, să demonstreze teoreme logice ([[Logic Theorist]], prima rulare c. 1956) și să vorbească în engleză.<ref name="Golden years of AI"> " [[History of AI#The golden years 1956–1974|Anii de Aur]] " ai AI (programe de raționalizare simbolică de succes 1956-1973): </ref> Până la mijlocul anilor 1960, cercetarea în SUA a fost finanțată în mare măsură de [[Defense Advanced Research Projects Agency|Departamentul Apărării]],<ref name="AI funding in the 60s"> [[DARPA]] atrage bani în cercetare pur nedirecționată în AI în anii 1960: </ref> și s-au înființat laboratoare în întreaga lume.<ref name="AI in England"> AI în Anglia: </ref> Fondatorii IA erau optimiști în privința viitorului: [[Herbert Simon]] prezicea: „mașinile vor fi capabile, în decurs de douăzeci de ani, să facă orice lucru poate face un om”. [[Marvin Minsky]] era de acord, scriind: „într-o generație... problema creării «inteligenței artificiale» va fi rezolvată substanțial”.<ref name="Optimism of early AI"> Optimismul AI timpuriu: </ref>
Luger & Stubblefield 2004


Ei nu puteau însă identifica dificultatea unor sarcini rămase de realizat. Progresul a încetinit, iar în 1974, în urma criticii lui [[Sir James Lighthill]]{{sfn|Lighthill|1973}} și a presiunii continue a Congresului SUA de a finanța proiecte mai productive, guvernele american și britanic au întrerupt cercetarea exploratorie în IA. Următorii câțiva ani aveau mai târziu să fie numiți „[[AI winter|iarna IA]]”,<ref name="First AI winter"> Primul [[AI Winter|AI de iarnă]] , [[Mansfield Amendment|amendamentul Mansfield]] , [[Lighthill report|raportul Lighthill]] </ref> o perioadă în care obținerea de finanțare pentru proiectele de IA a fost dificilă.
Poole, Mackworth & Goebel 1998


La începutul anilor 1980, cercetarea IA a fost revitalizată de succesul comercial al unor [[Sistem expert|sisteme expert]],<ref name="Expert systems"> Sistem expert: </ref> o formă de programe IA care simulau cunoștințele și abilitățile analitice ale experților umani. Până în 1985, piața pentru IA a ajuns la peste un miliard de dolari. În același timp, proiectul japonez de [[Fifth generation computer|calculator de generația a cincea]] a inspirat guvernele american și britanic să reînceapă finanțarea cercetării academice.<ref name="AI in the 80s"> Boom-ul anilor 1980: creșterea [[Expert systems|sistemelor expert]] , [[Fifth generation computer|Proiectul de generație a cincea]] , [[Alvey]] , [[Microelectronics and Computer Technology Corporation|MCC]] , [[Strategic Computing Initiative|SCI]] : </ref> Cu toate acestea, începând cu prăbușirea pieței de [[Lisp Machine|mașini Lisp]] în 1987, IA a căzut din nou în dizgrație și a început o a doua pauză de durată.<ref name="Second AI winter"> A doua [[AI winter|iarnă AI]] : </ref>
Nilsson 1998
</ref>


La sfârșitul anilor 1990 și începutul secolului al XXI-lea, IA a început să fie folosită pentru logistică, [[Extragerea de cunoștințe din date|data mining]], [[Diagnostic medical|diagnostic medical]] și în alte domenii.<ref name="AI widely used"> Aplicațiile AI utilizate pe scară largă în spatele scenei: </ref> Succesul s-a datorat creșterii puterii de calcul (vezi [[Legea lui Moore]]), accentului mai mare pus pe rezolvarea problemelor specifice, legături noi între IA și alte domenii (cum ar fi [[Statistică|statistica]], [[Științe economice|economia]] și [[Optimizare|matematica]]) și angajamentul cercetătorilor față de metodele matematice și standardele științifice.<ref name="Formal methods in AI"> Sunt preferate metodele formale ("Victoria [[Neats vs. scruffies|neaturilor]] "): </ref> [[Deep Blue]] a devenit primul sistem de joc de șah pe calculator care l-a învins pe campionul mondial de șah, [[Gari Kasparov|Garry Kasparov]], la {{Dată|1997|5|11}}. {{sfn|McCorduck|2004|pp=480–483}}
== Clasificare ==
{{Inteligență Artificială}}
În informatică, în general, inteligența artificială e împărțită în două categorii:
* inteligență artificială puternică (''strong AI''): prin aceasta se înțelege o inteligență artificială, de obicei bazată pe un [[computer]], care chiar poate "gândi" și este "conștientă de sine".
* inteligență artificială slabă (''weak AI''): o inteligență artificială care nu pretinde că poate gândi, putând însă rezolva o anumită clasă de probleme într-un mod mai mult sau mai puțin "inteligent", de exemplu cu ajutorul unui set de reguli.


În 2011, la o [[Quiz show|emisiune-concurs]] ''[[Jeopardy!]]'', într-un meci demonstrativ, [[Sisteme de tip întrebare - răspuns|sistemul de răspuns la întrebări]] al [[IBM]], [[Watson]], i-a învins detașat pe cei mai mari doi campioni la ''Jeopardy!'', [[Brad Rutter]] și [[Ken Jennings]].{{sfn|Markoff|2011}} [[Legea lui Moore|Calculatoarele mai rapide]], îmbunătățirile algoritmice și accesul la [[Big data|cantități mari de date]] au permis progresul [[Învățare automată|învățării automate]] și percepției mașinilor; metodele de [[Deep learning|învățare profundă]] mari consumatoare de date au început să domine testele de acuratețe prin [[Deep learning#Deep learning revolution|jurul anului 2012]].<ref>{{Citat web|url=https://www.mckinsey.com/business-functions/mckinsey-analytics/our-insights/ask-the-ai-experts-whats-driving-todays-progress-in-ai|accessdate=13 April 2018|lucrare=McKinsey & Company|limbă=en|titlu=Ask the AI experts: What's driving today's progress in AI?}}</ref> [[Kinect]], care oferă o interfață 3D de mișcare corporală pentru [[Xbox 360]] și [[Xbox One]], utilizează algoritmi care au rezultat din îndelungate cercetări de IA,<ref>{{Citat web|url=http://www.i-programmer.info/news/105-artificial-intelligence/2176-kinects-ai-breakthrough-explained.html|nume=Administrator|archiveurl=https://web.archive.org/web/20160201031242/http://www.i-programmer.info/news/105-artificial-intelligence/2176-kinects-ai-breakthrough-explained.html|lucrare=i-programmer.info|archivedate=1 February 2016|titlu=Kinect's AI breakthrough explained}}</ref> la fel ca [[Intelligent personal assistant|asistenții personali inteligenți]] din [[Smartphone|smartphone-uri]].<ref>{{Citat web|url=http://readwrite.com/2013/01/15/virtual-personal-assistants-the-future-of-your-smartphone-infographic|nume=Rowinski, Dan|date=15 January 2013|archiveurl=https://web.archive.org/web/20151222083034/http://readwrite.com/2013/01/15/virtual-personal-assistants-the-future-of-your-smartphone-infographic|lucrare=ReadWrite|archivedate=22 December 2015|titlu=Virtual Personal Assistants & The Future Of Your Smartphone [Infographic]}}</ref> În martie 2016, [[AlphaGo]] a câștigat 4 din 5 jocuri de [[Go (joc)|go]] într-un meci cu campionul la go [[Lee Sedol]], devenind primul [[Go-ul și calculatorul|sistem de joc go]] care a învins un jucător profesionist de go fără [[Go handicaps|handicap]].<ref name="bbc-alphago">{{Citat web|url=https://deepmind.com/alpha-go.html|publisher=|archiveurl=https://web.archive.org/web/20160310191926/https://www.deepmind.com/alpha-go.html|archivedate=10 March 2016|titlu=AlphaGo – Google DeepMind}}</ref><ref>{{Citat știre|title=Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol|url=https://www.bbc.com/news/technology-35785875|data=12 March 2016|accessdate=1 October 2016|journal=BBC News|archiveurl=https://web.archive.org/web/20160826103910/http://www.bbc.com/news/technology-35785875|archivedate=26 August 2016}}</ref> La [[Future of Go Summit]] din 2017, [[AlphaGo]] a câștigat un [[AlphaGo versus Ke Jie|meci de trei jocuri]] cu [[Ke Jie]],<ref>{{Citat revistă|dată=27 May 2017|titlu=After Win in China, AlphaGo's Designers Explore New AI|urlarhivă=https://web.archive.org/web/20170602234726/https://www.wired.com/2017/05/win-china-alphagos-designers-explore-new-ai/|url=https://www.wired.com/2017/05/win-china-alphagos-designers-explore-new-ai/|journal=Wired|archive-date=2 June 2017}}</ref> care la acea vreme deținea locul 1 în clasamentul mondial de clasament de doi ani.<ref>{{Citat web|url=http://www.goratings.org/|date=May 2017|archiveurl=https://web.archive.org/web/20170401123616/https://www.goratings.org/|archivedate=1 April 2017|titlu=World's Go Player Ratings}}</ref><ref>{{Citat web|url=http://sports.sina.com.cn/go/2016-08-02/doc-ifxunyya3020238.shtml|date=May 2017|archiveurl=https://web.archive.org/web/20170811222849/http://sports.sina.com.cn/go/2016-08-02/doc-ifxunyya3020238.shtml|limbă=Chinese|archivedate=11 August 2017|titlu=柯洁迎19岁生日 雄踞人类世界排名第一已两年}}</ref> Acest lucru a marcat finalizarea unui reper important în dezvoltarea inteligenței artificiale, deoarece go este un joc extrem de complex, mult mai complex decât șahul.
Progresul în crearea unei inteligențe artificiale puternice este mic<ref>{{Citat web|url = http://www.alanturing.net/turing_archive/pages/reference%20articles/what_is_AI/What%20is%20AI13.html|accessdate = |autor = Jack Copeland|titlu = What is Artificial Intelligence?}}</ref>. Aproape toate simulările inteligenței se bazează pe reguli și algoritmi obișnuiți, existând un progres doar în domeniul celei slabe (de exemplu la [[recunoaștere verbală|recunoașterea verbală]] și a [[OCR|scrisului]], la [[traducere automată|traducerea automată]] dintr-o limbă în alta sau și la jocul de [[șah]]).


Potrivit lui Jack Clark de la [[Bloomberg News|Bloomberg]], anul 2015 a fost un an de referință pentru inteligența artificială, numărul de proiecte software care utilizează IA la Google crescând de „utilizare sporadică” în 2012 la peste 2.700 de proiecte. Clark prezintă, de asemenea, date factuale care indică faptul că ratele de eroare din software-ul de procesare a imaginilor au scăzut semnificativ începând cu 2011.<ref name=":0">{{Citat web|url=https://www.bloomberg.com/news/articles/2015-12-08/why-2015-was-a-breakthrough-year-in-artificial-intelligence|nume=Clark|accessdate=23 November 2016|date=8 December 2015|archiveurl=https://web.archive.org/web/20161123053855/https://www.bloomberg.com/news/articles/2015-12-08/why-2015-was-a-breakthrough-year-in-artificial-intelligence|first1=Jack|lucrare=Bloomberg News|quote=After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever.|archivedate=23 November 2016|titlu=Why 2015 Was a Breakthrough Year in Artificial Intelligence}}</ref> El atribuie acest lucru unei creșteri a [[Artificial neural network|rețelelor neurale]] accesibile, datorită creșterii infrastructurii de cloud computing și a creșterii numărului de instrumente și seturi de date pentru cercetare.<ref name="AI in 2000s"> AI devine extrem de reușită la începutul secolului XXI </ref> Alte exemple menționate includ dezvoltarea de către Microsoft a unui sistem Skype care poate traduce automat dintr-o limbă în alta și sistemul Facebook care poate descrie imaginile pentru nevăzători.<ref name=":0" /> Într-un sondaj din 2017, una din cinci companii a raportat că „a încorporat IA în anumite oferte sau procese”.<ref>{{Citat web|url=https://sloanreview.mit.edu/projects/reshaping-business-with-artificial-intelligence/|accessdate=2 May 2018|lucrare=MIT Sloan Management Review|limbă=en|titlu=Reshaping Business With Artificial Intelligence}}</ref><ref>{{Citat web|url=https://www.oreilly.com/ideas/the-state-of-ai-adoption|nume=Lorica|accessdate=2 May 2018|date=18 December 2017|first1=Ben|lucrare=O'Reilly Media|limbă=en|titlu=The state of AI adoption}}</ref> În preajma lui 2016, [[Republica Populară Chineză|China]] a accelerat foarte mult finanțarea guvernamentală; având în vedere cantitatea mare de date disponibilă acolo și producția sa de cercetare în creștere rapidă, unii observatori consideră că ar putea fi pe cale să devină o „superputere IA”.<ref>{{Citat știre|title=Who's afraid of artificial intelligence in China? {{!}} DW {{!}} 18.09.2018|url=https://www.dw.com/en/whos-afraid-of-artificial-intelligence-in-china/a-45546972|data=September 2018|accessdate=4 November 2018|language=en|journal=DW.COM}}</ref><ref>{{Citat știre|title=Review {{!}} How two AI superpowers – the U.S. and China – battle for supremacy in the field|url=https://www.washingtonpost.com/outlook/in-the-race-for-supremacy-in-artificial-intelligence-its-us-innovation-vs-chinese-ambition/2018/11/02/013e0030-b08c-11e8-aed9-001309990777_story.html|data=2 November 2018|accessdate=4 November 2018|language=en|journal=Washington Post}}</ref>
== Istoric ==
La început, crearea și cercetarea inteligenței artificiale s-a desfășurat pe domeniul psihologiei, punându-se accent pe inteligența lingvistică, ca de exemplu la [[testul Turing]]. Acest test constă într-o conversație în limbaj uman natural cu o mașină (computer) care a fost programată special pentru acest test. Există un juriu uman care conversează cu acest computer, dar și cu un om, prin câte un canal pur text (fără ca ei să se vadă sau să se audă). În cazul în care juriul nu poate să-și dea seama care este computerul și care omul, atunci inteligența artificială (programul calculatorului) a trecut testul.


== Elementele de bază ==
[[Turing]] a prezis în [[1950]] că până în anul [[2000]] vor exista mașini (calculatoare) cu 10<sup>9</sup> bytes (1 GB) de memorie care vor putea "păcăli" 30% din juriile umane într-un test de 5 minute. Însă, în timp ce pe de-o parte tehnologia chiar a depășit previziunile lui Turing, inteligența artificială este încă departe de a fi realizată.
O IA tipică își analizează mediul și efectuează acțiuni care îi maximizează șansele de succes.<ref name="Definition of AI"> Definiția AI ca studiu al [[Intelligent agents|agenților inteligenți]] : </ref> [[Utilitate|Funcția utilitate (sau obiectiv)]] dorită pentru o OA poate fi simplă („1 dacă IA câștigă jocul de [[Go (joc)|go]], 0 în caz contrar”) sau complexă („efectuează acțiuni matematic asemănătoare celor care au reușit în trecut”). Obiectivele pot fi definite explicit sau induse. Dacă IA este programată pentru „[[Reinforcement learning|învățarea prin întărire]]”, obiectivele pot fi induse implicit prin recompensarea unor tipuri de comportament sau prin pedepsirea altora.{{efn|Acțiunea de a acorda recompensele poate fi chiar ea formalizată sau automatizată într-o „[[reward function|funcție de recompensă]]”.}} Alternativ, un sistem evolutiv poate induce scopuri prin folosirea unei [[Fitness function|funcții de fitness]] pentru a muta și replica în mod preferențial sistemele AI cu scoruri mari, similar cu modul în care animalele au evoluat pentru a-și dori în mod inerent anumite obiective, cum ar fi găsirea de alimente. {{sfn|Domingos|2015|loc=Chapter 5}} Unele sisteme AI, cum ar fi cel mai apropiat vecin, în loc de rațiune prin analogie, aceste sisteme nu au scopuri generale, cu excepția cazului în care scopurile sunt implicite în datele lor de instruire. {{sfn|Domingos|2015|loc=Chapter 7}} Astfel de sisteme pot fi încă evaluate, dacă sistemul non-goal este încadrat ca un sistem al cărui "scop" este de a-și îndeplini cu succes sarcina îngustă de clasificare. <ref> Lindenbaum, M., Markovitch, S. și Rusakov, D. (2004). Eșantionare selectivă pentru clasificatorii cei mai apropiați. Învățarea în mașină, 54 (2), 125-152. </ref>


IA gravitează adesea în jurul utilizării [[Algoritm|algoritmilor]]. Un algoritm este un set de instrucțiuni neechivoce pe care un calculator mecanic le poate executa.{{efn|Terminologia variază; vezi [[algorithm characterizations|caracterizările algoritmilor]].}} Un algoritm complex este adesea construit pe baza altor algoritmi mai simpli. Un exemplu simplu al unui algoritm este următoarea rețetă (optimă pentru primul jucător) la jocul de [[X și 0]]:{{sfn|Domingos|2015|loc=Chapter 1}}
Noile previziuni ale experților se bazează pe așa-numita [[legea lui Moore]] ("numărul de tranzistori pe un [[circuit integrat]] se va dubla la fiecare 18 luni, prin urmare și puterea de calcul"), "lege" care s-a îndeplinit pentru ultimii 30 de ani destul de bine, și poate că va mai fi valabilă încă 5-10 ani. Pentru viitor se speră că noile tehnologii (cuantice, optice, holografice, nanotehnologiile ș.a.) vor permite menținerea creșterii exponențiale, astfel că în maximum 20 de ani computerele să depășească puterea de procesare a creierului uman (vezi: [[Singularitate tehnologică]]). Unul dintre principalii susținători ai acestei ipoteze, pe lângă [[Vernor Vinge]], este cunoscutul expert [[Ray Kurzweil]] cu a sa celebră [[Legea întoarcerilor accelerate|lege a întoarcerilor accelerate]]. Însă aceste considerații sunt în general de natură cantitativă, neglijând din păcate nenumăratele fațete calitative ale inteligenței umane naturale.


# Dacă cineva „amenință” (adică are două pe rând), ocupă pătratul rămas. In caz contrar,
<gallery>
# dacă o mișcare „ramifică” pentru a crea două amenințări simultan, joacă această mișcare. În caz contrar,
Imagine:PPTSuperComputersPRINT.jpg|Grafic exponențial: istoria supercomputerelor
# ocupă pătratul central dacă acesta este liber. În caz contrar,
Imagine:PPTExponentialGrowthof Computing.jpg|Creșterea exponențială a puterii de calcul a computerelor
# dacă adversarul a jucat într-un colț, ocupă colțul opus. În caz contrar,
</gallery>
# ocupă un colț gol dacă există unul. În caz contrar,
# ocupă orice pătrat gol.


Mulți algoritmi IA sunt capabili să învețe din date; se pot îmbunătăți prin învățarea unor noi [[Heuristic (computer science)|euristici]] (strategii sau „reguli generale”, care au funcționat bine în trecut) sau pot scrie alți algoritmi. Unii dintre „învățăceii” descriși mai jos, între care rețelele bayesiene, arborii de decizie și cel mai apropiat vecin, ar putea teoretic (dacă dispun de date, timp și memorie infinite) să învețe să aproximeze orice [[funcție]], inclusiv combinația de funcții matematice care ar descrie cel mai bine lumea. Prin urmare, acești cursanți ar putea să obțină toate cunoștințele posibile, luând în considerare toate ipotezele posibile și potrivindu-le cu datele. În practică, aproape niciodată nu se poate lua în considerare orice posibilitate, din cauza fenomenului de „[[Combinatorial explosion|explozie combinatorică]]”, în care timpul necesar pentru a rezolva o problemă crește exponențial. O mare parte din cercetarea de IA implică determinarea modului de identificare și de evitare a unei game largi de posibilități care sunt puțin probabil să fie benefice.<ref name="Intractability"> [[Intractably|Intractabilitatea și eficiența]] și [[Combinatorial explosion|explozia combinatorică]] : </ref>{{sfn|Domingos|2015|loc=Chapter 2, Chapter 3}} De exemplu, atunci când se vizualizează o hartă și se caută pentru cel mai scurt drum care duce de la [[Denver]] la [[New York (oraș)|New York]], în cele mai multe cazuri, se poate sări peste orice drum prin [[San Francisco]] sau alte zone aflate mult la vest; astfel, o IA care utilizează un algoritm de trasare a traiectoriei ca [[A*]] poate evita explozia combinatorie care ar rezulta dacă ar trebui calculat fiecare traseu posibil în parte.<ref>{{Citat revistă|nume=Hart|nume2=Nilsson, N. J.|nume3=Raphael, B.|prenume=P. E.|an=1972|titlu=Correction to "A Formal Basis for the Heuristic Determination of Minimum Cost Paths"|journal=SIGART Newsletter|număr=37|pagini=28–29|doi=10.1145/1056777.1056779}}</ref>
O altă latură a inteligenței artificiale studiază animalele, și aici în special insectele, care sunt mai ușor de emulat de roboți. Totuși încă nu au putut fi create modele computaționale satisfăcătoare pentru simularea inteligenței animalelor<ref>{{Citat web|url = http://www.ncbi.nlm.nih.gov/pubmed/9814899|accessdate = |autor = |titlu = Animats: computer-simulated animals in behavioral research|date = 1998 Oct}}</ref>.


Cea mai veche abordare de IA a fost simbolismul (cum ar fi logica formală): „Dacă un adult altfel sănătos are febră, atunci poate să aibă [[gripă]]”. O a doua abordare, mai generală, este [[Bayesian inference|inferența bayesiană]]: „Dacă pacientul curent are febră, ajustează probabilitatea ca acesta să aibă gripă așa sau așa”. Cea de-a treia abordare majoră, extrem de populară în aplicațiile de IA de afaceri de rutină, sunt analogizatori precum [[Support vector machine|SVM]] și [[K-nearest neighbor algorithm|cel mai apropiat vecin]]: „După examinarea înregistrărilor despre pacienți cunoscuți din trecut, a căror temperatură, simptome, vârstă și alți factori se potrivesc cel mai mult cu pacientul actual, acei pacienți s-au dovedit a avea gripă”. O a patra abordare este mai greu de înțeles intuitiv, dar este inspirată de felul în care funcționează mecanismul creierului: abordarea cu [[Artificial neural network|rețele neurale artificiale]] folosește „[[Neuron|neuroni]]” artificiali care pot învăța prin compararea cu rezultatul dorit și modificând punctele tari ale conexiunilor dintre neuronii săi interni pentru a „întări” conexiunile care par astfel utile. Aceste patru abordări principale se pot suprapune între ele și cu sisteme evolutive; de exemplu, rețelele neurale pot învăța să facă inferențe, să generalizeze și să facă analogii. Unele sisteme utilizează, implicit sau explicit, mai multe dintre aceste abordări, alături de mulți alți algoritmi de IA și non-IA; <ref>{{Citat web|url=https://artificial-future.com/artificial-intelligence|titlu=Algorithm in Artificial Intelligence}}</ref> adesea, cea mai bună abordare diferă în funcție de problemă.{{sfn|Domingos|2015|loc=Chapter 2, Chapter 4, Chapter 6}}<ref>{{Citat știre|title=Can neural network computers learn from experience, and if so, could they ever become what we would call 'smart'?|url=https://www.scientificamerican.com/article/can-neural-network-comput/|data=2018|accessdate=24 March 2018|language=en|journal=Scientific American}}</ref>
În [[1961]], [[John Lucas]] a argumentat în lucrarea sa “Minți, mașini și Gödel” că mintea unui matematician nu poate fi reprezentată printr-un [[algoritm]], bazându-se pe [[teorema incompletitudinii]] a lui Gödel ("Nu există sisteme formale care să fie și consistente (= ne-contradictorii), și complete.").
[[Fișier:Overfitted_Data.png|miniatura| Linia albastră ar putea fi un exemplu de [[overfitting]] a unei funcții liniare din cauza zgomotului aleatoriu. ]]
Algoritmii de învățare funcționează pe baza faptului că strategiile, algoritmii și inferențele care au funcționat bine în trecut vor continua să funcționeze bine și în viitor. Aceste concluzii pot fi evidente, cum ar fi „întrucât soarele a răsărit în fiecare dimineață pentru ultimele 10.000 de zile, probabil că va răsări și mâine dimineață”. Ele pot fi nuanțate, cum ar fi „X% din [[Familie (biologie)|familii]] au specii separate din punct de vedere geografic cu variante de culoare, deci există o șansă de Y% să existe lebede negre încă nedescoperite”. Mașinile de învățare lucrează și pe baza „[[Briciul lui Occam|briciului lui Occam]]”: cea mai simplă teorie care explică datele este cea mai probabilă. Prin urmare, pentru a avea succes, o mașină care învață trebuie concepută astfel încât să prefere teoriile mai simple celor mai complexe, cu excepția cazurilor în care teoria complexă se dovedește a fi substanțial mai bună. Blocarea pe o teorie foarte complexă, dar proastă, care se potrivește cu toate datele de învățare din trecut, se numește overfitting. Multe sisteme încearcă să reducă overfittingul recompensând o teorie în funcție de cât de bine se potrivește cu datele, dar și penalizând-o în funcție de cât de complexă este.{{sfn|Domingos|2015|loc=Chapter 6, Chapter 7}} Pe lângă suprapunerea clasică, mașinile pot dezamăgi și „învățând lecția greșită”. Un exemplu este un clasificator de imagini antrenat numai pe imagini de cai maro și pisici negre ar putea concluziona că toate petecele de culoare brună ar putea fi cai.{{sfn|Domingos|2015|p=286}} Un exemplu din lumea reală este că, spre deosebire de oameni, clasificatoarele de imagine actualee nu determină relația spațială dintre componentele imaginii; în schimb, ele învață modele abstracte de pixeli pe care oamenii le ignoră, dar care se corelează liniar cu imaginile anumitor tipuri de obiecte reale. Suprapunând superficial un astfel de model pe o imagine legitimă are drept rezultat o imagine „contradictorie” pe care sistemul nu o poate clasifica.{{efn|Adversarial vulnerabilities can also result in nonlinear systems, or from non-pattern perturbations. Some systems are so brittle that changing a single adversarial pixel predictably induces misclassification.}}<ref>{{Citat știre|title=Single pixel change fools AI programs|url=https://www.bbc.com/news/technology-41845878|data=3 November 2017|accessdate=12 March 2018|journal=BBC News}}</ref><ref>{{Citat știre|title=AI Has a Hallucination Problem That's Proving Tough to Fix|url=https://www.wired.com/story/ai-has-a-hallucination-problem-thats-proving-tough-to-fix/|data=2018|accessdate=12 March 2018|journal=WIRED}}</ref><ref> Goodfellow, Ian J., Jonathon Shlens și Christian Szegedy. "Explicarea și valorificarea exemplelor contradictorii". arXiv preprint arXiv: 1412.6572 (2014). </ref>
[[Fișier:Détection_de_personne_-_exemple_3.jpg|miniatura| Un sistem de conducere automată poate folosi o rețea neurală pentru a determina care părți ale imaginii par să se potrivească cu imaginile anterioare de pietoni din procesul de antrenare și apoi să modeleze acele zone ca niște prisme dreptunghiulare care se mișcă încet, dar întrucâtva imprevizibile, și care trebuie evitate.<ref>{{Citat carte|nume=Matti|prenume=D.|nume2=Ekenel|prenume2=H. K.|nume3=Thiran|prenume3=J. P.|titlu=Combining LiDAR space clustering and convolutional neural networks for pedestrian detection|jurnal=2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS)|dată=2017|pagini=1–6|doi=10.1109/AVSS.2017.8078512|isbn=978-1-5386-2939-0}}</ref><ref>{{Citat carte|nume=Ferguson|prenume=Sarah|nume2=Luders|prenume2=Brandon|nume3=Grande|prenume3=Robert C.|nume4=How|prenume4=Jonathan P.|titlu=Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions|jurnal=Algorithmic Foundations of Robotics XI|volum=107|dată=2015|pagini=161–177|doi=10.1007/978-3-319-16595-0_10|editură=Springer, Cham|limbă=en|serie=Springer Tracts in Advanced Robotics|isbn=978-3-319-16594-3}}</ref> ]]
În comparație cu oamenii, IA existente nu dispun de mai multe trăsături ale „[[Commonsense reasoning|raționamentului de bun simț]]”; cel mai notabil, oamenii au mecanisme puternice pentru a raționa despre „[[Naïve physics|fizica naivă]]”, cum ar fi spațiul, timpul și interacțiunile fizice. Aceasta permite chiar copiilor mici să tragă ușor concluzii cum ar fi „dacă rostogolesc pixul acest de pe masă, va cădea pe podea”. Oamenii au, de asemenea, un mecanism puternic de „[[Folk psychology|psihologie populară]]”, care îi ajută să interpreteze propozițiile în limbaj natural precum „consilierii locali au refuzat autorizarea unei demonstrații pentru că aceasta militează pentru violență”. (O IA generică are dificultăți în a deduce dacă consilierii sau demonstranții sunt cei care pretind că susțin violența.)<ref>{{Citat știre|title=Cultivating Common Sense {{!}} DiscoverMagazine.com|url=http://discovermagazine.com/2017/april-2017/cultivating-common-sense|data=2017|accessdate=24 March 2018|journal=Discover Magazine}}</ref><ref>{{Citat revistă|nume=Davis|nume2=Marcus|prenume=Ernest|prenume2=Gary|dată=24 August 2015|titlu=Commonsense reasoning and commonsense knowledge in artificial intelligence|url=https://m.cacm.acm.org/magazines/2015/9/191169-commonsense-reasoning-and-commonsense-knowledge-in-artificial-intelligence/|journal=Communications of the ACM|volum=58|număr=9|pagini=92–103|doi=10.1145/2701413}}</ref><ref>{{Citat revistă|nume=Winograd|prenume=Terry|dată=January 1972|titlu=Understanding natural language|journal=Cognitive Psychology|volum=3|număr=1|pagini=1–191|doi=10.1016/0010-0285(72)90002-3}}</ref> Această lipsă de „cultură generală” înseamnă că IA face deseori alte greșeli decât cele ale oamenilor, în moduri care pot părea de neînțeles. De exemplu, autovehiculele autonome existente nu pot raționa cu privire la locația și intențiile pietonilor exact așa cum fac oamenii, iar în schimb trebuie să utilizeze moduri de gândire neumane pentru a evita accidentele.<ref>{{Citat știre|title=Don't worry: Autonomous cars aren't coming tomorrow (or next year)|url=http://autoweek.com/article/technology/fully-autonomous-vehicles-are-more-decade-down-road|data=2016|accessdate=24 March 2018|journal=Autoweek}}</ref><ref>{{Citat știre|title=Boston may be famous for bad drivers, but it's the testing ground for a smarter self-driving car|url=https://www.technologyreview.com/s/608871/finally-a-driverless-car-with-some-common-sense/|prenume=Will|nume=Knight|data=2017|accessdate=27 March 2018|language=en|journal=MIT Technology Review}}</ref><ref>{{Citat revistă|nume=Prakken|prenume=Henry|dată=31 August 2017|titlu=On the problem of making autonomous vehicles conform to traffic law|journal=Artificial Intelligence and Law|volum=25|număr=3|pagini=341–363|doi=10.1007/s10506-017-9210-0}}</ref>


== Domenii de cercetare ==
== Probleme ==
Scopul general al cercetării inteligenței artificiale este de a crea o tehnologie care să permită calculatoarelor și mașinilor să funcționeze într-o manieră inteligentă. Problema generală a simulării (sau a creării) inteligenței a fost împărțită în subprobleme. Acestea constau în particularități sau capacități pe care cercetătorii se așteaptă să le prezinte unui sistem inteligent. Caracteristicile descrise mai jos au primit cea mai mare atenție.<ref name="Problems of AI"> Această listă de trăsături inteligente se bazează pe subiectele abordate de manualele AI majore, printre care: </ref>
Cercetarea asupra inteligenței artificiale a început încă din [[anii 1950]], fiind împărțită în:
* cea clasică (sau simbolică); aceasta se ocupă cu manipularea simbolică a conceptelor abstracte, folosită azi în [[sistem expert|sistemele expert]], și
* cea conecționistă, exemplul cel mai cunoscut fiind “rețelele neuronale”.
În [[anii 1980]] s-a ajuns la concluzia că ambele abordări au limitări severe, cercetarea în acest domeniu fiind parțial abandonată din lipsa de finanțare.


=== Motivarea, rezolvarea problemelor ===
Principalele aplicații ale inteligenței artificiale sunt:
Cercetătorii timpurii au dezvoltat algoritmi care imită pas cu pas raționamentul pe care oamenii îl folosesc atunci când rezolvă puzzle-uri sau fac deduceri logice.<ref name="Reasoning"> Rezolvarea problemelor, rezolvarea puzzle-urilor, jocul și deducerea: </ref> Până la sfârșitul anilor 1980 și 1990, cercetarea IA a elaborat metode de abordare a informațiilor [[Incertitudine|incerte]] sau incomplete, folosind concepte din [[probabilitate]] și [[Științe economice|economie]].<ref name="Uncertain reasoning"> Înțelegere neechivă: </ref>
* [[sistem expert|sistemele expert]]
* sistemele și [[logica fuzzy]]
* [[algoritm genetic|algoritmii genetici]]
* [[rețea neuronală|rețelele neuronale]]
* agenții inteligenți
* sistemele inteligente hibride
* [[voce electronică|vocea electronică]] sintetizată
* recunoașterea automată a formelor (inclusiv a scrisului, a sunetelor și vorbitului), numită în [[engleză]] ''Pattern Recognition''.


Acești algoritmi s-au dovedit a fi insuficienți pentru rezolvarea problemelor mari de raționament, deoarece ajungeau într-o „explozie combinatorică”: deveneau exponențial mai lenți, pe măsură ce problemele creșteau.<ref name="Intractability"> [[Intractably|Intractabilitatea și eficiența]] și [[Combinatorial explosion|explozia combinatorică]] : </ref> De fapt, chiar și oamenii folosesc rareori deducția pas-cu-pas pe care a reușit să o modeleze cercetarea timpurie în IA. Ei rezolvă majoritatea problemelor lor folosind judecăți rapide și intuitive.<ref name="Psychological evidence of sub-symbolic reasoning"> Evidența psihologică a raționamentului sub-simbolic: </ref>
== Exemple practice ==
* Pentru cercetarea în domeniu și chiar crearea unui aparat/program cu inteligență artificială au fost create câteva limbaje de programare speciale precum [[LISP]] și [[Prolog (limbaj de programare)|Prolog]], dar acum ele sunt folosite și pentru alte scopuri.
* [[Deep Blue]], un computer de la firma [[IBM]] care joacă șah, l-a învins pe campionul mondial la șah [[Gari Kasparov]] în celebrul meci din [[1997]].
* [[Logica fuzzy]] și [[sistem expert|sistemele expert]] sunt folosite pentru a controla sisteme industriale
* Sistemele de traducere automată precum [[SYSTRAN]] sunt folosite pe anumite domenii restrânse, deoarece rezultatele sunt mult mai slabe decât traducerea umană.
* ''Optical Character Recognition'' (''[[OCR]]'') - recunoașterea automată a scrisului de tipar sau de mână
* ''Voice recognition'' - recunoașterea acustică a vorbirii naturale (recunoașterea verbală)
* [[rețele neuronale|Rețelele neuronale]], folosite mai mult în [[jocuri pe calculator]]
și multe altele.


=== Reprezentarea cunoștințelor ===
== Perspective ==
[[Fișier:GFO_taxonomy_tree.png|dreapta|miniatura| O ontologie reprezintă cunoștințele ca un set de concepte în cadrul unui domeniu și relațiile dintre aceste concepte. ]]
==Bibliografie==
[[Knowledge representation|Reprezentarea cunoștințelor]]<ref name="Knowledge representation"> [[Knowledge representation|Reprezentarea cunoștințelor]] : </ref> și [[Knowledge engineering|ingineria cunoștințelor]]<ref name="Knowledge engineering"> [[Knowledge engineering|Tehnologia cunoștințelor]] : </ref> sunt esențiale pentru cercetarea clasică din IA. Unele „sisteme expert” încearcă să reunească cunoștințe explicite posedate de experți într-un domeniu îngust. În plus, unele proiecte încearcă să strângă cunoștințele „de bun simț”, cunoscute oamenilor obișnuiți, într-o bază de date care conține cunoștințe extinse despre lume. Printre lucrurile pe care o bază cuprinzătoare de cunoștințe comune ar conține sunt: obiectele, proprietățile, categoriile și relațiile dintre obiecte;<ref name="Representing categories and relations"> Reprezentarea categoriilor și a relațiilor: [[Semantic network|Rețele semantice]] , [[Description logic|logica descriptivă]] , [[Inheritance (computer science)|moștenire]] (inclusiv [[Frame (artificial intelligence)|cadre]] și [[Scripts (artificial intelligence)|scripturi]] ): </ref> situații, evenimente, stări și timp; <ref name="Representing time"> Reprezentarea evenimentelor și a timpului: [[Situation calculus|Calculul situației]] , [[Situation calculus|calculul]] [[Event calculus|evenimentului]] , [[Fluent calculus|calculul fluent]] (inclusiv rezolvarea problemei [[Frame problem|cadrului]] ): </ref> cauze și efecte;<ref name="Representing causation"> [[Causality#Causal calculus|Calculul cauzal]] : </ref> cunoștințe despre cunoștințe (ce știm despre ceea ce știu ceilalți);<ref name="Representing knowledge about knowledge"> Reprezentarea cunoștințelor despre cunoaștere: [[Belief calculus|Calculul credinței]] , [[Modal logic|logica modală]] : </ref> și multe alte domenii mai puțin bine cercetate. O reprezentare a „ceea ce există” este o [[Ontology (computer science)|ontologie]]: setul de obiecte, relațiile, conceptele și proprietățile descrise formal astfel încât agenții software să le poată interpreta. [[Semantică|Semantica]] acestor elemente este capturată sub formă de concepte, roluri și indivizi din [[Description logic|logica descriptivă]] și sunt, de obicei, implementate drept clase, proprietăți și indivizi în [[Web Ontology Language]].<ref>{{Citat carte|nume=Sikos|prenume=Leslie F.|dată=June 2017|titlu=Description Logics in Multimedia Reasoning|url=https://www.springer.com/us/book/9783319540658|locul-publicării=Cham|editură=Springer|isbn=978-3-319-54066-5|doi=10.1007/978-3-319-54066-5}}</ref> Cele mai generale ontologii sunt numite [[Upper ontology|ontologii superioare]], care încearcă să ofere o bază pentru toate celelalte cunoștințe<ref name="Ontology"> [[Ontology (computer science)|Ontologie]] : </ref> acționând ca mediatori între [[Domain ontology|ontologiile de domeniu]] care acoperă cunoștințe specifice despre un anumit domeniu de cunoștințe (domeniu sau arie de interes). Astfel de reprezentări formale ale cunoștințelor pot fi utilizate în indexarea și regăsirea pe bază de conținut,<ref>{{Citat revistă|nume=Smoliar|nume2=Zhang|prenume=Stephen W.|prenume2=HongJiang|dată=1994|titlu=Content based video indexing and retrieval|journal=IEEE Multimedia|volum=1.2|pagini=62–72}}</ref> interpretarea scenei,<ref>{{Citat revistă|nume=Neumann|nume2=Möller|prenume=Bernd|prenume2=Ralf|dată=January 2008|titlu=On scene interpretation with description logics|journal=Image and Vision Computing|volum=26|număr=1|pagini=82–101|doi=10.1016/j.imavis.2007.08.013}}</ref> sprijinirea deciziilor clinice,<ref>{{Citat revistă|nume=Kuperman|nume2=Reichley|nume3=Bailey|prenume=G. J.|prenume2=R. M.|prenume3=T. C.|dată=1 July 2006|titlu=Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations|journal=Journal of the American Medical Informatics Association|volum=13|număr=4|pagini=369–371|pmid=16622160|pmc=1513681|doi=10.1197/jamia.M2055}}</ref> descoperirea de cunoștințe (extragerea de inferențe „interesante“ și deducții acționabile din baze mari de date),<ref>{{Citat revistă|nume=MCGARRY|prenume=KEN|dată=1 December 2005|titlu=A survey of interestingness measures for knowledge discovery|journal=The Knowledge Engineering Review|volum=20|număr=1|pagină=39|doi=10.1017/S0269888905000408}}</ref> și alte domenii.<ref>{{Cite conference|last=Bertini|last2=Del Bimbo|last3=Torniai|given=M|first2=A|first3=C|date=2006|conference=14th ACM international conference on Multimedia|booktitle=MM '06 Proceedings of the 14th ACM international conference on Multimedia|pages=679–682|title=Automatic annotation and semantic retrieval of video sequences using multimedia ontologies|url=|location=Santa Barbara|publisher=ACM}}</ref>


Printre cele mai dificile probleme ale reprezentării cunoștințelor se numără:
==== '''Manuale despre AI''' ====
* [[Stuart Russel|Russel, Stuart J.]]; [[Peter Norvig|Norvig, Peter]] (2003), ''[http://aima.cs.berkeley.edu Artificial Intelligence: A Modern Approach]'' [http://aima.cs.berkeley.edu (2nd ed.)], Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2
* [[Marcus Hutter|Hutter, Marcus]] (2005). ''Universal Artificial Intelligence''. Berlin: Springer. ISBN 978-3-540-22139-5
* Luger, George; Stubblefield, William (2004). ''[http://www.cs.unm.edu/~luger/ai-final/tocfull.html Artificial Intelligence: Structures and Strategies for Complex Problem Solving]'' [http://www.cs.unm.edu/~luger/ai-final/tocfull.html (5th ed.).] Benjamin/Cummings. ISBN 0-8053-4780-1
* [[Nils Nilsson|Nilsson, Nils]] (1998). ''Artificial Intelligence: A New Synthesis''. Morgan Kaufmann. ISBN 978-1-55860-467-4
* Poole, David; [[Alan Mackworth|Mackworth, Alan]]; Goebel, Randy (1998). ''[http://www.cs.ubc.ca/~poole/ci.html Computational Intelligence: A Logical Approach]''. New York: Oxford University Press. <nowiki>ISBN 0-19-510270-3</nowiki>
* Ioan Georgescu, Elemente de inteligență artificială, Editura Academiei Republicii Socialiste România, București, 1985
* Hubert B. Keller, ''Maschinelle Intelligenz - Grundlagen, Lernverfahren, Bausteine intelligenter Systeme'', Editura Vieweg, Braunschweig/Wiesbaden, 2000, ISBN 3-528-05489-1


; [[Default reasoning|Raționamentul implicit]] și [[Qualification problem|problema calificării]]
== Note ==
: Multe dintre lucrurile pe care oamenii le cunosc iau forma unor „ipoteze de lucru”. De exemplu, dacă în conversație vine vorba despre o pasăre, oamenii își imaginează de obicei un animal care are dimensiunea pumnului, care cântă și zboară. Niciunul dintre aceste lucruri nu este adevărat despre toate păsările. [[John McCarthy]] a identificat această problemă în 1969<ref name="Qualification problem"> [[Qualification problem|Problemă de calificare]] : </ref> drept problem calificării: pentru orice regulă de bun simț pe care cercetătorii de IA doresc să o reprezinte, există un număr mare de excepții. Aproape nimic nu este pur și simplu adevărat sau fals în felul în care o impune logica abstractă. Cercetarea IA a explorat o serie de soluții la această problemă.<ref name="Default reasoning and non-monotonic logic"> Raționamentul [[Default logic|implicit]] și [[Default logic|logica implicită]] , [[Default logic|logica]] [[Non-monotonic logic|non-monotonică]] , [[Circumscription (logic)|circumscripția]] , [[Closed world assumption|ipoteza închisă a lumii]] , [[Abductive reasoning|răpirea]] (Poole ''et al.'' , Răpirea locurilor sub "raționamentul implicit", Luger ''et al.'' </ref>
<references/>
; Lărgimea cunoașterii generale
: Numărul de fapte atomice pe care le știe un om oarecare este foarte mare. Proiectele de cercetare care încearcă să construiască o bază de cunoștințe completă a cunoștințelor [[Commonsense knowledge|comune]] (de exemplu, [[Cyc]]) necesită o cantitate enormă de [[Ontology engineering|inginerie ontologică]] laborioasă - acestea trebuie să fie construite manual, fiecare concept complicat pe rând.<ref name="Breadth of commonsense knowledge"> Lățimea cunoștințelor comune: </ref>
; Forma subsimbolică a unor cunoștințe comune
: O mare parte din ceea ce știu oamenii nu este reprezentat ca „fapte” sau „afirmații” pe care le-ar putea exprima verbal. De exemplu, un maestru de șah va evita o anumită poziție de șah pentru că „se simte prea expus”{{sfn|Dreyfus|Dreyfus|1986}} sau un critic de artă poate să arunce o singură privire pe o statuie și să-și dea seama că este un fals.{{sfn|Gladwell|2005}} Acestea sunt intuiții și tendințe inconștiente și subsimbolice din creierul uman.<ref name="Intuition"> Cunoștințe de specialitate ca intuiție [[Embodied cognition|întrupată]] : </ref> Cunoașterea de acest gen informează, sprijină și oferă un context pentru cunoașterea simbolică și conștientă. Ca și în cazul problemelor legate de raționamentul subsimbolic, se speră că [[Situated artificial intelligence|IA situată]], [[Computational intelligence|inteligența computațională]] sau [[Inteligență artificială|IA statistică]] va oferi modalități de reprezentare a acestui tip de cunoaștere.<ref name="Intuition" />


== Vezi și ==
=== Planificarea ===
[[File:Hierarchical-control-system.svg|miniatura| Un [[Hierarchical control system|sistem de control ierarhic]] este o formă de [[Control system|sistem de control]] în care un ansamblu de dispozitive și software de conducere este aranjat într-o ierarhie. ]]
* [[Testul Turing]]
Agenții inteligenți trebuie să poată să-și stabilească și să îndeplinească obiective.<ref name="Planning"> [[Automated planning and scheduling|Planificare]] : </ref> Ei au nevoie de o modalitate de a vizualiza viitorul{{Mdash}} o reprezentare a stării lumii și să poată face previziuni cu privire la modul în care acțiunile lor o vor schimba{{Mdash}} și să poată face alegeri care maximizează [[Utilitate|utilitatea]] (sau „valoarea”) alegerilor disponibile.<ref name="Information value theory"> [[Applied information economics|Teoria valorilor informațiilor]] : </ref>
* [[Inteligență]]
* [[Go-ul și calculatorul]]


În problemele de planificare clasică, agentul poate presupune că este singurul sistem care acționează în lume, permițând agentului să se asigure de consecințele acțiunilor sale.<ref name="Classical planning"> Planificarea clasică: </ref> Cu toate acestea, dacă agentul nu este singurul actor, atunci este necesar ca agentul să poată raționa sub incertitudine. Aceasta necesită un agent care să nu poată evalua doar mediul său și să facă previziuni, ci și să își evalueze previziunile și să se adapteze pe baza evaluării sale.<ref name="Non-deterministic planning"> Planificarea și acționarea în domenii nedeterministe: planificarea condiționată, monitorizarea execuției, replanificarea și planificarea continuă: </ref>
== Legături externe ==
* [http://www.inteligenta-artificiala.ro/document41.html Portal de inteligență artificială din România]
* [http://coneural.org/inteligenta-artificiala/ Centrul de Cercetări Cognitive și Neuronale (Coneural)]
* [http://robotica.inteligenta-artificiala.ro Robotica inteligentă - Primul portal de robotică din România]
* [http://www.infoiasi.ro/~alaiba/club-ai Clubul de inteligență artificială] din cadrul [http://www.infoiasi.ro Facultății de Informatică], [http://www.uaic.ro Universitatea "Al.I.Cuza" Iași]
* [http://www.phobos.ro/demos/tts/ Voce electronică demo interactiv]
* [http://www.evz.ro/detalii/stiri/pe-pamint-apare-o-specie-noua-robo-sapiens-526490.html Pe pamint apare o specie nouă: Robo Sapiens], 4 August 2002, ''Evenimentul zilei''
* [https://iasi.ai IAȘI AI], comunitatea de inteligență artificială din Iași


[[Multi-agent planning|Planificarea multi-agent]] utilizează [[Cooperare|cooperarea]] și concurența multor agenți pentru a atinge un obiectiv dat. Astfel de [[Emergent behavior|comportament emergent]] este folosit de [[Evolutionary algorithms|algoritmi evolutivi]] și de [[Inteligență „roi”|inteligența de roi]].<ref name="Multi-agent planning"> Planificarea multi-agent și comportamentul emergent: </ref>
{{Informații bibliotecare}}

=== Învăţare ===
Învățarea automată, un concept fundamental al cercetării IA de la începutul domeniului,<ref>[[Alan Turing]] discussed the centrality of learning as early as 1950, in his classic paper "[[Computing Machinery and Intelligence]]".{{Harvard citation|Turing|1950}} In 1956, at the original Dartmouth AI summer conference, [[Ray Solomonoff]] wrote a report on unsupervised probabilistic machine learning: "An Inductive Inference Machine".{{Harvard citation|Solomonoff|1956}}</ref> este studiul algoritmilor de calcul care se îmbunătățesc automat prin experiență.<ref> Aceasta este o forma a definitiei masinilor de invatare a lui [[Tom M. Mitchell|Tom Mitchell]] : "Un program de calculator este setat sa invete dintr-o experienta ''E'' in ceea ce priveste o sarcina ''T'' si o masura de performanta ''P'' daca performanta ei pe ''T'' masurata prin ''P se'' imbunatateste cu experiența ''E'' ". </ref><ref name="Machine learning"> [[Machine learning|Învățare]] : </ref>

[[Unsupervised learning|Învățarea nesupravegheată]] este abilitatea de a găsi șabloane într-un flux de intrare, fără a cere unui om să eticheteze mai întâi intrările.<ref>{{Citat web|url=https://deepai.org/machine-learning-glossary-and-terms/unsupervised-learning|nume=|accessdate=|date=|archiveurl=|first1=|lucrare=deepai.org|archivedate=|titlu=What is Unsupervised Learning?}}</ref> [[Supervised learning|Învățarea supravegheată]] include atât [[Statistical classification|clasificarea]], cât și [[Analiza de regresie|regresia]] numerică, care necesită etichetarea în prealabil de către om a datelor de intrare. Clasificarea este folosită pentru a determina în ce categorie aparține ceva, după ce a văzut câteva exemple de lucruri din mai multe categorii. Regresia este încercarea de a produce o funcție care descrie relația dintre intrări și ieșiri și prezice modul în care ieșirile ar trebui să se schimbe odată cu schimbarea intrărilor.<ref name="Machine learning"> [[Machine learning|Învățare]] : </ref> Atât clasificatorii, cât și mașinile de învățare prin regresie pot fi văzuți ca „aproximatori de funcții”, încercând să învețe o funcție necunoscută (eventual implicită); de exemplu, un clasificator de spam poate fi privit ca învățând o funcție care mapează textul unui e-mail într-una din cele două categorii, „spam” sau „non spam”. [[Computational learning theory|Teoria învățării computaționale]] poate evalua cursanții prin [[Computational complexity|complexitate computațională]], prin [[Sample complexity|complexitatea eșantionului]] (de câte date este nevoie) sau prin alte noțiuni de [[optimizare]].<ref>{{Citat revistă|nume=Jordan|nume2=Mitchell|prenume=M. I.|prenume2=T. M.|dată=16 July 2015|titlu=Machine learning: Trends, perspectives, and prospects|journal=Science|volum=349|număr=6245|pagini=255–260|pmid=26185243|bibcode=2015Sci...349..255J|doi=10.1126/science.aaa8415}}</ref> În [[Reinforcement learning|învățarea prin întărire]],<ref name="Reinforcement learning"> [[Reinforcement learning|Consolidarea învățării]] : </ref> agentul este răsplătit pentru răspunsuri bune și pedepsit pentru cele greșite. Agentul folosește această succesiune de recompense și pedepse pentru a forma o strategie de operare în spațiul problemei.

=== Prelucrarea limbajului natural ===
[[Fișier:ParseTree.svg|miniatura| Un [[Parse tree|arbore de parsare]] reprezintă structura [[Sintaxă|sintactică]] a unei propoziții conform unei anumite [[Formal grammar|gramatici formale]]. ]]
[[Prelucrarea limbajului natural]]<ref name="Natural language processing"> [[Natural language processing|Procesarea limbajului natural]] : </ref> (PLN) oferă mașinilor posibilitatea de a citi și de a [[Natural language understanding|înțelege]] limbajul uman. Un sistem suficient de puternic de procesare a limbajului natural ar permite [[Natural-language user interface|interfețele utilizator în limbaj natural]] și dobândirea de cunoștințe direct din surse scrise de om, cum ar fi textele știrilor. Unele aplicații simple ale procesării limbajului natural includ [[Information retrieval|recuperarea informațiilor]], [[Text mining|extragerea cunoștințelor din texte]], [[Sisteme de tip întrebare - răspuns|răspunsul la întrebări]]<ref>[https://www.academia.edu/2475776/Versatile_question_answering_systems_seeing_in_synthesis "Versatile question answering systems: seeing in synthesis"] {{Webarchive}}, Mittal et al., IJIIDS, 5(2), 119–142, 2011
</ref> și [[Traducere automată|traducerea automată]]. <ref name="Applications of natural language processing"> Aplicații ale prelucrării limbajului natural, inclusiv [[Information retrieval|recuperarea informațiilor]] (de exemplu [[Text mining|miniere text]] ) și [[Machine translation|traducere automată]] : </ref> Multe abordări actuale utilizează frecvențe de co-apariție a cuvintelor pentru a construi reprezentări sintactice ale textului. Strategiile de căutare a cuvintelor-cheie sunt populare și scalabile, dar simpliste; o interogare de căutare după „câine” ar putea să se potrivească doar documentelor cu cuvântul literal „câine” și să rateze un document cu cuvântul „pudel”. Strategiile de „afinitate lexicală” utilizează apariția unor cuvinte precum „accident” pentru a [[Sentiment analysis|evalua sentimentul]] unui document. Abordările statistice moderne ale PLN pot combina toate aceste strategii, precum și altele, și ating adesea o acuratețe acceptabilă la nivel de pagină sau de paragraf, dar continuă să lipsească înțelegerea semantică necesară pentru a clasifica bine propoziții izolate. Pe lângă dificultățile obișnuite cu codificarea cunoașterii semantice, PLN semantică existentă scalează, uneori, prea slab pentru a fi viabilă în aplicațiile curente. Dincolo de PLN semantică, scopul final al PLN „narative” este de a încorpora o înțelegere deplină a raționamentului de bun-simț.<ref>{{Citat revistă|nume=Cambria|nume2=White|prenume=Erik|prenume2=Bebo|dată=May 2014|titlu=Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]|journal=IEEE Computational Intelligence Magazine|volum=9|număr=2|pagini=48–57|doi=10.1109/MCI.2014.2307227}}</ref>

=== Percepţie ===
[[Fișier:Ääretuvastuse_näide.png|miniatura| [[Feature detection (computer vision)|Detectarea elementelor]] (ilustrată: [[Edge detection|detectarea muchiilor]]) ajută IA să compună structuri abstracte informative din datele brute. ]]
[[Machine perception|Percepția automată]]<ref name="Machine perception"> [[Machine perception|Percepția mașinii]] : </ref> este abilitatea de a folosi date de intrare de la senzori (cum ar fi camerele (de spectru vizibil sau infraroșu), microfoane, semnale wireless și [[Lidar|lidare]], sonare, radare si [[Tactile sensor|senzori tactili]]) pentru a deduce aspecte ale lumii. Aplicațiile includ [[Recunoaștere vocală|recunoașterea vorbirii]],<ref name="Speech recognition"> [[Speech recognition|Recunoașterea vorbelor]] : </ref> [[Facial recognition system|recunoașterea facială]] și [[Object recognition|recunoașterea obiectelor]].<ref name="Object recognition"> [[Object recognition|Recunoașterea obiectelor]] : </ref> [[Computer vision|Vederea mașinilor]] este abilitatea de a analiza intrările vizuale. O astfel de intrare este de obicei ambiguă; un pieton uriaș, de cincizeci de metri, aflat la distanță, poate produce exact aceiași pixeli ca un pieton de dimensiuni normale aflat în apropiere, ceea ce necesită ca IA să judece probabilitatea relativă și rezonabilitatea diferitelor interpretări, de exemplu prin utilizarea modelului său de obiecte pentru a evalua că nu există pietoni de cincizeci de metri înălțime.<ref name="Computer vision"> [[Computer vision|Viziunea computerului]] : </ref>

=== Mișcare și manipulare ===
IA este mult folosită în [[robotică]].<ref name="Robotics"> [[Robotic|Robotica]] : </ref> [[Robotic arm|Brațele robotice]] avansate și alți [[Robot industrial|roboți industriali]], utilizați pe scară largă în fabricile moderne, pot învăța din experiență cum să se deplaseze eficient în ciuda prezenței frecării și alunecării angrenajelor.<ref name="Configuration space"> [[Configuration space (physics)|Spațiu de]] mișcare și de [[Configuration space (physics)|configurare]] : </ref> Un robot mobil modern, atunci când i se dă un mediu mic, static și vizibil, își poate determina cu ușurință locația și își poate [[Robotic mapping|reprezenta]] mediul; totuși, mediile dinamice, cum ar fi (în [[endoscopie]]) interiorul corpului unui pacient viu, reprezintă o provocare mai mare. [[Motion planning|Planificarea mișcării]] este procesul de descompunere a unei sarcini de mișcare în „primitive”, cum ar fi mișcările individuale comune. O astfel de mișcare implică adesea mișcare conformă, un proces în care mișcarea necesită menținerea unui contact fizic cu un obiect.{{sfn|Tecuci|2012}}<ref name="Robotic mapping"> [[Robotic mapping|Maparea robotică]] (localizare, etc): </ref><ref>{{Citat revistă|nume=Cadena|nume2=Carlone|nume3=Carrillo|nume4=Latif|nume5=Scaramuzza|nume6=Neira|nume7=Reid|nume8=Leonard|prenume=Cesar|prenume2=Luca|prenume3=Henry|prenume4=Yasir|prenume5=Davide|prenume6=Jose|prenume7=Ian|prenume8=John J.|dată=December 2016|titlu=Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age|journal=IEEE Transactions on Robotics|volum=32|număr=6|pagini=1309–1332|doi=10.1109/TRO.2016.2624754}}</ref> [[Moravec's paradox|Paradoxul lui Moravec]] generalizează că abilitățile senzorimotorii de nivel scăzut, pe care oamenii le iau ca atare sunt, în mod contraintuitiv, greu de programat într-un robot; paradoxul este numit după [[Hans Moravec]], care a afirmat în 1988 că „este destul de ușor să se facă computerele să prezinte performanțe la nivelul adulților pe testele de inteligență sau la jocul de dame, dar este dificil spre imposibil să capete abilitățile unui copil de un an când vine vorba de percepție și mobilitate”.<ref>{{Citat carte|prenume=Hans|nume=Moravec|an=1988|titlu=Mind Children|editură=Harvard University Press|legătură-autor=Hans Moravec|pagină=15}}</ref><ref>{{Citat știre|title=This is what will happen when robots take over the world|url=https://www.telegraph.co.uk/finance/economics/11994694/Heres-what-will-happen-when-robots-take-over-the-world.html|prenume=Szu Ping|nume=Chan|data=15 November 2015|accessdate=23 April 2018}}</ref> Acest lucru se datorează faptului că, spre deosebire de jocul de dame, dexteritatea fizică a fost o țintă directă a [[Selecție naturală|selecției naturale]] timp de milioane de ani.<ref name="The Economist">{{Citat știre|title=IKEA furniture and the limits of AI|url=https://www.economist.com/news/leaders/21740735-humans-have-had-good-run-most-recent-breakthrough-robotics-it-clear|data=2018|accessdate=24 April 2018|language=en|journal=The Economist}}</ref>

=== Inteligența socială ===
[[Fișier:Kismet_robot_at_MIT_Museum.jpg|miniatura| [[Kismet (robot)|Kismet]], un robot cu abilități sociale rudimentare{{sfn|''Kismet''}} ]]
Paradoxul lui Moravec poate fi extins la multe forme de inteligență socială.<ref>{{Cite magazine}}</ref><ref>{{Citat revistă|nume=Scassellati|prenume=Brian|an=2002|titlu=Theory of mind for a humanoid robot|journal=Autonomous Robots|volum=12|număr=1|pagini=13–24|doi=10.1023/A:1013298507114}}</ref> Distribuirea coordonării multi-agent a vehiculelor autonome rămâne o problemă dificilă.<ref>{{Citat revistă|nume=Cao|nume2=Yu|nume3=Ren|nume4=Chen|prenume=Yongcan|prenume2=Wenwu|prenume3=Wei|prenume4=Guanrong|dată=February 2013|titlu=An Overview of Recent Progress in the Study of Distributed Multi-Agent Coordination|journal=IEEE Transactions on Industrial Informatics|volum=9|număr=1|pagini=427–438|doi=10.1109/TII.2012.2219061}}</ref> [[Affective computing|Calculul afectiv]] este o umbrelă interdisciplinară care cuprinde sisteme care recunosc, interpretează, procesează sau simulează [[Affect (psychology)|afecțiunile]] umane.{{sfn|Thro|1993}}{{sfn|Edelson|1991}}{{sfn|Tao|Tan|2005}} Printre succesele moderate legate de calculul se numără [[Sentiment analysis|analiza textuală a sentimentelor]] și, mai recent, analiza afectivă multimodală, în care IA clasifică afectele prezentate de un subiect înregistrat pe un film.<ref>{{Citat revistă|nume=Poria|nume2=Cambria|nume3=Bajpai|nume4=Hussain|prenume=Soujanya|prenume2=Erik|prenume3=Rajiv|prenume4=Amir|dată=September 2017|titlu=A review of affective computing: From unimodal analysis to multimodal fusion|journal=Information Fusion|volum=37|pagini=98–125|doi=10.1016/j.inffus.2017.02.003}}</ref>

Pe termen lung, aptitudinile sociale și înțelegerea emoției umane și a [[Teoria jocurilor|teoriei jocurilor]] ar fi valoroase pentru un agent social. Capacitatea de a prezice acțiunile altora prin înțelegerea motivelor și a stărilor emoționale ar permite unui agent să ia decizii mai bune. Unele sisteme informatice imită emoțiile și expresiile umane pentru a deveni mai sensibile la dinamica emoțională a interacțiunii umane sau pentru a facilita altfel [[Interacțiune om-calculator|interacțiunea om-calculator]].<ref name="Emotion and affective computing"> Emoția și [[Affective computing|calculul afectiv]] : </ref> În mod similar, unii [[Virtual assistant|asistenți virtuali]] sunt programați să poarte conversații sau chiar să se pălăvrăgească în glumă; acest lucru tinde să ofere utilizatorilor naivi o concepție nerealistă despre cât de inteligenți sunt de fapt agenții automați existenți. <ref>{{Cite magazine}}</ref>

=== Inteligența generală ===
Din punct de vedere istoric, proiectele ca baza de cunoștințe Cyc (1984-) și inițiativa japoneză masivă a [[Fifth generation computer|sistemelor informatice din generația a cincea]] (1982-1992), au încercat să acopere amploarea cunoașterii umane. Aceste proiecte timpurii nu au reușit să scape de limitările modelelor logice simbolice necantitative și, în retrospectivă, au subestimat foarte mult dificultatea inteligenței artificiale inter-domeniu. În zilele noastre, marea majoritate a cercetătorilor actuali din IA lucrează în schimb pe aplicații de „IA îngust” mai tractabile (cum ar fi diagnosticul medical sau navigația automobilelor).<ref name="contemporary agi">{{Citat carte|nume=Pennachin|prenume=C.|nume2=Goertzel|prenume2=B.|titlu=Contemporary Approaches to Artificial General Intelligence|jurnal=Artificial General Intelligence. Cognitive Technologies|dată=2007|doi=10.1007/978-3-540-68677-4_1|editură=Springer|locul-publicării=Berlin, Heidelberg|serie=Cognitive Technologies|isbn=978-3-540-23733-4}}</ref> Mulți cercetători prognozează că astfel de „IA înguste" vor lucra în diferite domenii individuale, și în cele din urmă vor fi integrate într-o mașină cu [[Artificial general intelligence|inteligență generală artificială]] (AGI) combinând majoritatea competențelor înguste menționate în acest articol și într-un anumit punct chiar depășind capacitatea umană în majoritatea sau toate aceste domenii.<ref name="General intelligence"> Inteligența generală ( [[Artificial general intelligence|AI puternică]] ) este discutată în introducerea populară a AI: </ref><ref name="Roberts">{{Cite magazine}}</ref> Multe progrese au o semnificație generală, pe mai multe domenii. Un exemplu de mare anvergură este faptul că [[DeepMind]] a dezvoltat în 2010 o „inteligență artificială generalizată” care ar putea învăța multe jocuri [[Atari 2600|Atari]] diferite de una singură și mai târziu a dezvoltat o variantă a sistemului care reușește la [[Catastrophic interference#The Sequential Learning Problem: McCloskey and Cohen (1989)|învățarea secvențială]].<ref>{{Citat știre|title=The superhero of artificial intelligence: can this genius keep it in check?|url=https://www.theguardian.com/technology/2016/feb/16/demis-hassabis-artificial-intelligence-deepmind-alphago|data=16 February 2016|accessdate=26 April 2018|language=en|journal=the Guardian}}</ref><ref>{{Citat revistă|nume=Mnih|nume2=Kavukcuoglu|nume3=Silver|nume4=Rusu|nume5=Veness|nume6=Bellemare|nume7=Graves|nume8=Riedmiller|nume9=Fidjeland|prenume=Volodymyr|prenume2=Koray|prenume3=David|prenume4=Andrei A.|prenume5=Joel|prenume6=Marc G.|prenume7=Alex|prenume8=Martin|prenume9=Andreas K.|dată=26 February 2015|titlu=Human-level control through deep reinforcement learning|journal=Nature|volum=518|număr=7540|pagini=529–533|pmid=25719670|bibcode=2015Natur.518..529M|doi=10.1038/nature14236}}</ref><ref>{{Citat știre|title=Google's DeepMind makes AI program that can learn like a human|url=https://www.theguardian.com/global/2017/mar/14/googles-deepmind-makes-ai-program-that-can-learn-like-a-human|prenume=Ian|nume=Sample|data=14 March 2017|accessdate=26 April 2018|language=en|journal=the Guardian}}</ref> Pe lângă [[Transfer learning|învățarea prin transfer]],<ref>{{Citat știre|title=From not working to neural networking|url=https://www.economist.com/news/special-report/21700756-artificial-intelligence-boom-based-old-idea-modern-twist-not|data=2016|accessdate=26 April 2018|language=en|journal=The Economist}}</ref> descoperirile ipotetice ale IGA ar putea cuprinde dezvoltarea unor arhitecturi reflexive care să se poată implica în metaraționamentul decizional-teoretic și găsirea unui mod de a „absorbi” o bază de cunoștințe cuprinzătoare din întregul [[World Wide Web|web]] nestructurat.{{sfn|Russell|Norvig|2009|chapter=27. AI: The Present and Future}} Unii susțin că un fel de „algoritm master” (încă nedescoperit) conceptual simplu, dar matematic dificil, ar putea conduce la AGI.{{sfn|Domingos|2015|chapter=9. The Pieces of the Puzzle Fall into Place}} În cele din urmă, câteva abordări „emergente“, privesc la simularea inteligenței umane extrem de îndeaproape, și cred că unele caracteristici [[Antropomorfism|antropomorfe]], cum ar fi [[Artificial brain|creierul artificial]] sau simularea [[Developmental robotics|dezvoltării copiilor]] pot ajunge într-o zi într-un punct critic în care apare inteligența generală.<ref name="Brain simulation"> Argumentele [[Artificial brain|creierului artificial]] : AI necesită o simulare a funcționării creierului uman </ref><ref>{{Citat revistă|nume=Goertzel|nume2=Lian|nume3=Arel|nume4=de Garis|nume5=Chen|prenume=Ben|prenume2=Ruiting|prenume3=Itamar|prenume4=Hugo|prenume5=Shuo|dată=December 2010|titlu=A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures|journal=Neurocomputing|volum=74|număr=1–3|pagini=30–49|doi=10.1016/j.neucom.2010.08.012}}</ref>

Multe dintre problemele din acest articol pot necesita, de asemenea, inteligență generală, dacă mașinile trebuie să rezolve problemele așa cum o fac oamenii. De exemplu, chiar și sarcini simple, cum ar fi [[Traducere automată|traducerea automată]], necesită ca o mașină să citească și să scrie în ambele limbi ([[Inteligență artificială|PLN]]), să urmeze logica ([[Inteligență artificială|raționamentul]]) autorului, să știe despre ce se vorbește ([[Inteligență artificială|cunoștințe]]) și să reproducă cu fidelitate intenția originară a autorului ([[Inteligență artificială|inteligență socială]]). O problemă precum traducerea automată este considerată „[[AI-complete|IA-completă]]”, pentru că toate aceste probleme trebuie rezolvate simultan pentru a considera că mașina a atins performanța unui om.

== Abordări ==
Nu există o teorie sau [[paradigmă]] unificatoare care să ghideze cercetarea de IA. Cercetătorii nu au căzut de acord asupra multor aspecte.<ref>[[Nils Nilsson (researcher)|Nils Nilsson]] writes: "Simply put, there is wide disagreement in the field about what AI is all about" {{Harvard citation|Nilsson|1983|p=10}}.</ref> Câteva dintre cele mai îndelungate întrebări care au rămas fără răspuns sunt următoarele: ar trebui inteligența artificială să simuleze inteligența naturală prin studiul [[Psihologie|psihologiei]] sau [[Neuroștiințe|neurobiologiei]]? Sau [[Human biology|biologia umană]] este irelevantă pentru cercetarea IA, așa cum este biologia păsărilor pentru [[Inginerie aerospațială|ingineria aeronautică]]?<ref name="Biological intelligence vs. intelligence in general"> Inteligența biologică vs. inteligența în general: </ref> Poate fi descris un comportament inteligent folosind principii simple și elegante (cum ar fi [[Logică|logica]] sau [[Optimizare|optimizarea]])? Sau este neapărat nevoie de rezolvarea unui număr mare de probleme complet independente?<ref name="Neats vs. scruffies"> [[Neats vs. scruffies]] : </ref>

=== Cibernetica și simularea creierului ===
În anii 1940 și 1950, mai mulți cercetători au explorat legătura dintre [[Neuroștiințe|neurobiologie]], [[Teoria informației|teoria informațiilor]] și [[cibernetică]]. Unii dintre aceștia au construit mașini care utilizează rețele electronice pentru a expune informații rudimentare, cum ar fi [[Turtle (robot)|țestoasele]] lui [[W. Grey Walter|W. Gray Walter]] și [[Johns Hopkins Beast|fiara de la Johns Hopkins]]. Mulți dintre acești cercetători s-au adunat pentru întâlnirile Societății Teleologice de la [[Universitatea Princeton]] și în [[Ratio Club|Clubul Ratio]] din Anglia.<ref name="AI's immediate precursors"> Precursorii imediali ai AI: </ref> Până în 1960, această abordare a fost în mare parte abandonată, deși elemente ale acesteia aveau să fie reînviate în anii 1980.

=== Simbolice ===
Când accesul la calculatoarele digitale a devenit posibil la mijlocul anilor 1950, cercetarea IA a început să exploreze posibilitatea ca inteligența umană să poată fi redusă la manipularea simbolurilor. Cercetarea a fost centrată în trei instituții: [[Carnegie Mellon University|Universitatea Carnegie Mellon]], [[Universitatea Stanford|Stanford]] și [[Massachusetts Institute of Technology|MIT]], iar după cum este descris mai jos, fiecare și-a dezvoltat propriul stil de cercetare. [[John Haugeland]] a numit aceste abordări simbolice ale IA „good old-fashioned AI” („[[GOFAI]]”; în traducere liberă „IA bună ca pe vremuri”).<ref name="GOFAI"> [[Artificial intelligence#CITEREFHaugeland1985|Haugeland 1985]] , pp. &nbsp; 112-117 </ref> În anii 1960, abordările simbolice au avut un mare succes în simularea gândirii la nivel înalt în programele demonstrative mici. Abordările bazate pe [[cibernetică]] sau pe [[Artificial neural network|rețele neurale artificiale]] au fost abandonate sau împinse în fundal.<ref> Cel mai dramatic caz al AI sub-simbolic care a fost împins în fundal a fost critica devastatoare a [[Perceptron|perceptronilor de]] către [[Marvin Minsky]] și [[Seymour Papert]] în 1969. A se vedea [[History of AI|Istoria AI]] , [[AI winter|AI iarnă]] , sau [[Frank Rosenblatt]] . </ref> Cercetătorii din anii 1960 și 1970 au fost convinși că abordările simbolice ar reuși în cele din urmă să creeze o mașină cu [[Artificial general intelligence|inteligență generală artificială]] și să considere acest lucru scopul țelului lor.

==== Simularea cognitivă ====
Economistul [[Herbert Simon]] și [[Allen Newell]] au studiat abilitățile de rezolvare a problemelor umane și au încercat să le formalizeze, iar activitatea lor a pus bazele domeniului inteligenței artificiale, precum și ale [[Cognitive science|științei cognitive]], [[Operations research|cercetării operaționale]] și [[Management science|științei managementului]]. Echipa lor de cercetare a folosit rezultatele experimentelor [[Psihologie|psihologice]] pentru a dezvolta programe care au simulat tehnicile pe care oamenii le foloseau pentru rezolvarea problemelor. Această tradiție, centrată pe [[Carnegie Mellon University|Universitatea Carnegie Mellon]], avea să culmineze în cele din urmă în dezvoltarea arhitecturii [[Soar (cognitive architecture)|Soar]] în mijlocul anilor 1980.<ref name="AI at CMU in the 60s"> Simulare cognitivă, [[Allen Newell|Newell]] și [[Herbert A. Simon|Simon]] , AI la [[Carnegie Mellon University|CMU]] (numită apoi [[Carnegie Tech]] ): </ref><ref name="Soar"> [[Soar (cognitive architecture)|Soar]] (istoric): </ref>

==== Pe bază de logică ====
Spre deosebire de Simon și Newell, [[John McCarthy]] a simțit că mașinile nu au nevoie să simuleze gândirea umană, ci ar trebui să încerce să găsească esența raționamentului abstract și a rezolvării problemelor, indiferent dacă oamenii folosesc aceleași algoritmi.<ref name="Biological intelligence vs. intelligence in general"> Inteligența biologică vs. inteligența în general: </ref> Laboratorul său de la [[Universitatea Stanford|Stanford]] ([[Stanford Artificial Intelligence Laboratory|SAIL]]) s-a concentrat pe utilizarea [[Logică|logicii]] formale pentru a rezolva o mare varietate de probleme, inclusiv [[Knowledge representation|reprezentarea cunoștințelor]], [[Automated planning and scheduling|planificarea]] și [[Învățare automată|învățarea]].<ref name="AI at Stanford in the 60s"> Cercetarea [[John McCarthy (computer scientist)|McCarthy]] și AI la [[Stanford Artificial Intelligence Laboratory|SAIL]] și [[SRI International]] : </ref> Logica a fost, de asemenea, subiectul unor lucrări de la [[Universitatea din Edinburgh]] și din alte părți ale Europei, care au condus la dezvoltarea limbajului de programare [[Prolog (limbaj de programare)|Prolog]] și a științei [[Logic programming|programării logice]].<ref name="AI at Edinburgh and France in the 60s"> Cercetarea AI la [[University of Edinburgh|Edinburgh]] și în Franța, nașterea lui [[Prolog]] : </ref>

==== Anti-logice sau scruffy ====
Cercetătorii de la [[Massachusetts Institute of Technology|MIT]] (precum [[Marvin Minsky]] și [[Seymour Papert]])<ref name="AI at MIT in the 60s"> AI la [[MIT]] sub [[Marvin Minsky]] în anii 1960 : </ref> au constatat că rezolvarea unor probleme dificile de [[Computer vision|vedere]] și [[Prelucrarea limbajului natural|prelucrarea limbajului natural]] necesită soluții ad-hoc{{Mdash}} ei au susținut că nu există un principiu simplu și general (cum ar fi [[Logică|logica]]) care să captureze toate aspectele comportamentului inteligent. [[Roger Schank]] descrie abordările lor „anti-logice” ca fiind „[[Neats vs. scruffies|scruffy]]” (spre deosebire de paradigmele „[[Neats vs. scruffies|neat]]” de la [[Carnegie Mellon University|CMU]] și Stanford).<ref name="Neats vs. scruffies"> [[Neats vs. scruffies]] : </ref> [[Commonsense knowledge bases|Bazele de cunoștințe de bun simț]] (cum ar fi [[Cyc]] a lui [[Douglas Lenat|Doug Lenat]]) sunt un exemplu de IA „scruffy”, deoarece trebuie construită manual, concept cu concept.<ref name="Cyc"> [[Cyc]] : </ref>

==== Pe bază de cunoștințe ====
Când au devenit disponibile computerele cu memorii mari pe la 1970, cercetătorii din toate cele trei tradiții au început să introducă [[Knowledge representation|cunoștințe]] în aplicațiile IA.<ref name="Knowledge revolution"> Cunoașterea revoluției: </ref> Această „revoluție a cunoștințelor” a dus la dezvoltarea și desfășurarea [[Sistem expert|sistemelor expert]] (introduse de [[Edward Feigenbaum]]), prima formă cu adevărat de succes a software-ului cu IA.<ref name="Expert systems"> Sistem expert: </ref> O componentă cheie a arhitecturii de sistem pentru toate sistemele expert este baza de cunoștințe care stochează fapte și reguli care ilustrează IA.<ref>{{Citat revistă|nume=Frederick|nume2=William|nume3=Leonard|prenume=Hayes-Roth|prenume2=Murray|prenume3=Adelman|titlu=Expert systems|language=en|doi=10.1036/1097-8542.248550}}</ref> Revoluția cunoștințelor a fost determinată și de realizarea faptului că o mulțime de cunoștințe ar fi necesare multor aplicații cu IA simple.

=== Subsimbolice ===
Până în anii 1980, progresul în domeniul IA simbolic părea să se blocheze și mulți credeau că sistemele simbolice nu ar putea niciodată să imite toate procesele cunoașterii umane, în special [[Machine perception|percepția]], [[Robotică|robotica]], [[Învățare automată|învățarea]] și [[Pattern recognition|recunoașterea șabloanelor]]. Mai mulți cercetători au început să privească spre abordările „subsimbolice” asupra problemelor specifice IA.<ref name="Symbolic vs. sub-symbolic"> Simbolic vs. AI sub-simbolic: </ref> Metodele sub-simbolice reușesc să abordeze inteligența fără reprezentări specifice ale cunoașterii.

==== Inteligență întruchipată ====
Aceasta include [[Embodied agent|IA întruchipată]], [[Situated|situată]], [[Behavior-based AI|bazată pe comportament]] și [[Nouvelle AI|nouvelle]]. Cercetătorii din domeniul asociat al [[Robotică|roboticii]], cum ar fi [[Rodney Brooks]], respingeau IA simbolică și s-au concentrat asupra problemelor fundamentale de inginerie care ar permite roboților să se miște și să supraviețuiască.<ref name="Embodied AI"> Abordări [[Embodied agent|integrate]] la AI: </ref> Munca lor a reînviat punctul de vedere nesimbolic al cercetătorilor timpurii ai [[Cibernetică|ciberneticii]] din anii 1950 și a reintrodus utilizarea [[Control theory|teoriei controlului]] în IA. Acest lucru a coincis cu dezvoltarea [[Embodied mind thesis|tezei gândirii încorporate]] în domeniul conex al [[Cognitive science|științei cognitive]]: ideea că aspecte ale corpului (cum ar fi mișcarea, percepția și vizualizarea) sunt necesare unei inteligențe superioare.

În cadrul roboticii de dezvoltare, se elaborează abordări de învățare pentru dezvoltare pentru a permite roboților să acumuleze repertorii de abilități noi prin auto-explorare autonomă, interacțiune socială cu profesori umani și utilizarea mecanismelor de orientare (învățare activă, maturizare, sinergii motorii etc.).{{sfn|Weng|McClelland|Pentland|Sporns|2001}}{{sfn|Lungarella|Metta|Pfeifer|Sandini|2003}}{{sfn|Asada|Hosoda|Kuniyoshi|Ishiguro|2009}}{{sfn|Oudeyer|2010}}

==== Inteligență computațională și soft computing ====
Interesul pentru [[Artificial neural network|rețelele neurale]] și „[[Connectionism|conexionism]]” a fost relansat de [[David Rumelhart]] și alții la mijlocul anilor 1980.<ref name="Revival of connectionism"> Renasterea [[Connectionism|conexiunii]] : </ref> [[Artificial neural network|Rețelele neurale artificiale]] sunt un exemplu de [[soft computing]]{{Mdash}} acestea sunt soluții la probleme care nu pot fi rezolvate cu o certitudine logică completă și unde o soluție aproximativă este adesea suficientă. Alte abordări de [[soft computing]] în IA sunt [[Fuzzy system|sistemele fuzzy]], [[Evolutionary computation|calculul evolutiv]] și multe instrumente statistice. Aplicarea soft computingului în IA este studiată colectiv de disciplina emergentă a [[Computational intelligence|inteligenței computaționale]]. <ref name="Computational intelligence"> [[Computational intelligence]] </ref>

=== Învățarea statistică ===
O mare parte din [[Symbolic artificial intelligence|GOFAI]] tradiționale s-au împotmolit în mici modificări ''ad''-''hoc'' aduse calculului simbolic care a lucrat pe propriile modele, dar nu s-a generalizat la rezultatele din lumea reală. Cu toate acestea, în jurul anilor 1990, cercetătorii din IA au adoptat instrumente matematice sofisticate, cum ar fi [[Hidden Markov model|modelele Markov ascunse]] (HMM), [[Teoria informației|teoria informațiilor]] și [[Decision theory|teoria bayesiană a deciziei]] pentru a compara sau unifica arhitecturile concurente. Limbajul matematic comun a permis un nivel ridicat de colaborare cu mai multe domenii (cum ar fi [[Matematică|matematica]], economia sau [[Operations research|cercetarea operațională]]).{{efn|O asemenea „victorie a taberei ''neat''” poate fi o consecință a faptului că domeniul a devenit mai matur; cu toate acestea, [[Artificial Intelligence: A Modern Approach|AIMA]] afirmă că în practică atât abordările [[neats and scruffies|''neat'' cât și cele ''scruffy'']] continuă să fie necesare în cercetarea IA.}} În comparație cu GOFAI, noi tehnici de "învățare statistică", cum ar fi rețelele neurale și HMM, au obținut niveluri mai înalte de precizie în multe domenii practice, cum ar fi [[Extragerea de cunoștințe din date|data mining]], fără a se obține neapărat înțelegerea semantică a seturilor de date. Succesele sporite cu datele din lumea reală au condus la accentul sporit pe compararea diferitelor abordări ale datelor de testare partajate, pentru a vedea care dintre metodele au cea mai bună performanță într-un context mai larg decât cel oferit de modelele idiosincratice; cercetarea AI a devenit tot mai [[Metodă științifică|științifică]]. În prezent, rezultatele experimentelor sunt adesea măsurabile riguros și uneori (cu dificultate) pot fi reproduse.<ref name="Formal methods in AI"> Sunt preferate metodele formale ("Victoria [[Neats vs. scruffies|neaturilor]] "): </ref><ref>{{Citat știre|title=Artificial intelligence faces reproducibility crisis|url=http://science.sciencemag.org/content/359/6377/725|prenume=Matthew|nume=Hutson|data=16 February 2018|accessdate=28 April 2018|language=en|doi=10.1126/science.359.6377.725|journal=[[Science Magazine|Science]]|pages=725–726|bibcode=2018Sci...359..725H}}</ref> Diferitele tehnici de învățare statistică au limite diferite; de exemplu, HMM de bază nu poate modela combinațiile posibile infinite ale limbajului natural.{{sfn|Norvig|2012}} Criticii remarcă faptul că trecerea de la GOFAI la învățarea statistică implică adesea, de asemenea, abandonarea [[Explainable AI|IA explicabile]]. În cercetarea IGA, unii cercetători avertizează împotriva dependenței excesive de învățarea statistică și susțin că cercetarea continuă a GOFAI va fi totuși necesară pentru a obține informații generale.{{sfn|Langley|2011}}{{sfn|Katz|2012}}

=== Integrarea abordărilor ===

; Paradigma agentului inteligent
: Un [[Intelligent agent|agent inteligent]] este un sistem care își percepe mediul și efectuează acțiuni care îi maximizează șansele de succes. Cei mai simpli agenți inteligenți sunt programe care rezolvă probleme specifice. Printre agenții mai complicați se numără ființele umane și organizațiile de ființe umane (cum ar fi [[Afacere|firmele]]). Paradigma permite cercetătorilor să compare direct sau chiar să combine diferite abordări pentru problemele izolate, întrebând care agent este cel mai bun la maximizarea unei „funcții de țintă” date. Un agent care rezolvă o problemă specifică poate folosi orice abordare care funcționează{{Mdash}} unii agenți sunt simbolici și logici, unii sunt [[Artificial neural network|rețele neurale artificiale]] subsimbolice și alții pot folosi noi abordări. Paradigma oferă, de asemenea, cercetătorilor un limbaj comun pentru a comunica cu alte domenii{{Mdash}} cum ar fi teoria deciziei și economia{{Mdash}} care utilizează și ele conceptul agenților abstracți. Construirea unui agent complet necesită ca cercetătorii să abordeze probleme realiste de integrare; de exemplu, deoarece sistemele senzoriale oferă informații nesigure despre mediu, sistemele de planificare trebuie să poată funcționa în prezența incertitudinii. Paradigma agentului inteligent a devenit pe scară largă acceptată în anii 1990.<ref name="Intelligent agents"> Paradigma [[Intelligent agent|agentului inteligent]] : </ref>

; [[Agent architecture|Arhitecturi de agent]] și [[Cognitive architecture|arhitecturi cognitive]]
: Cercetătorii au creat sisteme pentru a construi sisteme inteligente din interacțiunea [[Intelligent agents|agenților inteligenți]] într-un [[Sistem multi-agent|sistem multi-agent]].<ref name="Agent architectures"> [[Agent architecture|Arhitecturi de agenți]] , [[Hybrid intelligent system|sisteme hibride inteligente]] : </ref> Un [[Hierarchical control system|sistem ierarhic de control]] oferă o punte între IA subsimbolică la nivelurile sale reactive, cele mai scăzute, și IA simbolică tradițională de la cele mai înalte niveluri, unde constrângerile de timp relaxate permit planificarea și modelarea lumii.<ref name="Hierarchical control system"> [[Hierarchical control system|Sistem de control ierarhic]] : </ref> Unele arhitecturi cognitive sunt personalizate pentru a rezolva o problemă îngustă; altele, cum ar fi Soar, sunt concepute pentru a imita cogniția umană și pentru a oferi o perspectivă asupra inteligenței generale. Extensiile moderne ale Soar sunt [[Hybrid intelligent system|sisteme inteligente hibride]] care includ atât componente simbolice, cât și sub-simbolice.<ref>{{Citat revistă|nume=Laird|prenume=John|dată=2008|titlu=Extending the Soar cognitive architecture|journal=Frontiers in Artificial Intelligence and Applications|volum=171|pagină=224}}</ref><ref>{{Citat revistă|nume=Lieto|nume2=Bhatt|nume3=Oltramari|nume4=Vernon|prenume=Antonio|prenume2=Mehul|prenume3=Alessandro|prenume4=David|dată=May 2018|titlu=The role of cognitive architectures in general artificial intelligence|journal=Cognitive Systems Research|volum=48|pagini=1–3|doi=10.1016/j.cogsys.2017.08.003}}</ref>

== Instrumente ==
IA a dezvoltat un număr mare de instrumente pentru a rezolva cele mai dificile probleme din [[Informatică|domeniul informaticii]]. Câteva dintre cele mai generale dintre aceste metode sunt discutate mai jos.

=== Căutarea și optimizarea ===
Multe probleme din IA pot fi rezolvate teoretic prin căutarea inteligentă între multe soluții posibile: <ref name="Search"> [[Search algorithm|Algoritmi de căutare]] : </ref> [[Inteligență artificială|Raționamentul]] poate fi redus la efectuarea unei căutări. De exemplu, demonstrația logică poate fi privită drept căutarea unei căi care conduce de la [[Premisă|ipoteză]] la [[Logical consequence|concluzie]], în care fiecare pas este aplicarea unei [[Inference rule|reguli de inferență]].<ref name="Logic as search"> [[Forward chaining|Îmbinare]] [[Backward chaining|spre]] [[Forward chaining|înainte]] , [[Forward chaining|înlănțuire]] [[Backward chaining|înapoi]] , [[Horn clause|clauze Horn]] și deducere logică ca căutare: </ref> Algoritmii de [[Automated planning and scheduling|planificare]] caută prin arbori de obiective și subobiective, încercând să găsească o cale către un obiectiv țintă, un proces numit [[Means-ends analysis|analiză mijloc-scop]]. <ref name="Planning as search"> [[State space search|Căutarea]] și [[Automated planning and scheduling|planificarea]] [[State space search|spațiului de stat]] : </ref> Algoritmii de [[robotică]] pentru mișcarea membrelor și pentru apucarea obiectelor utilizează [[Local search (optimization)|căutări locale]] în [[Configuration space (physics)|spațiul de configurare]].<ref name="Configuration space"> [[Configuration space (physics)|Spațiu de]] mișcare și de [[Configuration space (physics)|configurare]] : </ref> Mulți algoritmi de [[Învățare automată|învățare]] utilizează algoritmi de căutare bazați pe [[optimizare]].

Căutările exhaustive simple<ref name="Uninformed search"> Căutări neinformate ( [[Breadth first search|prima căutare în lățime, prima căutare în]] [[Depth first search|profunzime]] și [[Depth first search|căutare]] generală în [[State space search|spațiu de stare]] ): </ref> sunt rareori suficiente pentru majoritatea problemelor din lumea reală: dimensiunea [[Search algorithm|spațiului de căutare]] (numărul de locuri de căutare) crește rapid la [[Astronomically large|cifre astronomice]]. Rezultatul este o căutare care este [[Complexitate în timp|prea lentă]] sau nu se termină niciodată. Soluția, pentru multe probleme, este de a folosi „[[Heuristics|euristica]]” sau „regula aproximativă” care prioritizează opțiunile în favoarea celor care au mai multe șanse de a atinge un obiectiv și de a face acest lucru într-un număr mai mic de pași. În unele metodologii de căutare, euristica poate servi, de asemenea, la eliminarea în totalitate a unor alegeri care sunt puțin probabil să conducă la un scop (numită „[[Pruning (algorithm)|tăierea ramurilor]] [[Search tree|arborelui de căutare]]”). [[Heuristics|Euristica]] furnizează programului o „estimare a căii celei mai bune” spre care ar putea exista soluția.<ref name="Informed search"> Căutări [[Heuristic|euristice]] sau informate (de exemplu, [[Best-first search|cel mai bine la început]] și [[A*|A *]] ): </ref> Euristica limitează căutarea soluțiilor într-un eșantion de dimensiune mai mică.{{sfn|Tecuci|2012}}

Un tip foarte diferit de căutare a ieșit în evidență în anii 1990, bazat pe teoria matematică a [[Optimizare|optimizării]]. Pentru multe probleme, este posibil să se înceapă căutarea cu o anumită formă de aproximare și apoi să se rafineze această aproximare incremental până când nu mai pot fi făcute îmbunătățiri. Acești algoritmi pot fi vizualizați ca [[Hill climbing|escaladă]] orbească: se începe căutarea într-un punct aleatoriu din peisaj și apoi, prin salturi sau pași, se continuă mișcarea în sus, până se ajunge în vârf. Alți algoritmi de optimizare sunt [[simulated annealing]], [[beam search]] și [[Random optimization|optimizarea aleatorie]].<ref name="Optimization search"> Căutări de [[Optimization (mathematics)|optimizare]] : </ref>
[[Fișier:ParticleSwarmArrowsAnimation.gif|miniatura| Un [[Particle swarm optimization|roi de particule]] care caută [[Global minimum|minimul global]] ]]
[[Evolutionary computation|Calculul evolutiv]] utilizează o formă de căutare cu optimizare. De exemplu, el poate începe cu o populație de organisme (presupunerile) și apoi le permite să sufere mutații și să se recombine, [[Artificial selection|selectând]] doar cei mai potriviți indivizi pentru a supraviețui fiecărei generații (rafinarea presupunerilor). Printre [[Evolutionary algorithms|algoritmii evolutivi]] clasici se numără [[Algoritm genetic|algoritmii genetici]], [[Gene expression programming|programarea genetică de expresie]] și [[Genetic programming|programarea genetică]].<ref name="Genetic programming"> [[Genetic programming|Programare]] [[Genetic algorithms|genetică]] și [[Genetic algorithms|algoritmi genetici]] : </ref> Alternativ, procesele de căutare distribuite pot fi coordonate prin algoritmi de [[Inteligență „roi”|inteligență a roiului]]. Doi algoritmi populari de rotire folosiți în căutare sunt [[Particle swarm optimization|optimizarea roiurilor de particule]] (inspirată de [[Flocking (behavior)|roirea]] păsărilor) și [[Ant colony optimization|optimizarea coloniilor de furnici]] (inspirată de [[Formicide|urmele furnicilor]]).<ref name="Society based learning"> [[Artificial life|Viața artificială]] și învățarea bazată pe societate: </ref><ref>{{Citat carte|nume=Daniel Merkle|nume2=Martin Middendorf|nume-editor=Burke|prenume-editor=Edmund K.|nume-editor2=Kendall|prenume-editor2=Graham|titlu=Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques|dată=2013|editură=Springer Science & Business Media|isbn=978-1-4614-6940-7|limbă=en|capitol=Swarm Intelligence}}</ref>

=== Logică ===
[[Logică|Logica]]<ref name="Logic"> [[Logic|Logică]] : </ref> este folosită pentru reprezentarea cunoștințelor și rezolvarea problemelor, dar poate fi aplicată și altor probleme. De exemplu, algoritmul [[satplan]] utilizează logica pentru [[Automated planning and scheduling|planificare]]<ref name="Satplan"> [[Satplan]] : </ref> și [[Inductive logic programming|programarea logică inductivă]] este o metodă de [[Învățare automată|învățare]].<ref name="Symbolic learning techniques"> [[Explanation based learning|Învățarea bazată pe explicații, învățarea bazată pe]] [[Relevance based learning|relevanță]] , [[Inductive logic programming|programarea logică inductivă]] , [[Case based reasoning|raționamentul bazat pe caz]] : </ref>

În cercetarea IA se folosesc mai multe forme diferite de logică. [[Propositional logic|Logica propozițională]]<ref name="Propositional logic"> [[Propositional logic|Logica propozițională]] : </ref> implică [[Truth function|funcții de adevăr]], cum ar fi „sau” și „non”. [[First-order logic|Logica de ordinul întâi]]<ref name="First-order logic"> [[First-order logic|Prima logică]] și caracteristici precum [[Equality (mathematics)|egalitatea]] : </ref> adaugă [[Quantifier (logic)|cuantificatori]] și [[Predicate (mathematical logic)|predicate]] și poate exprima fapte despre obiecte, proprietățile lor și relațiile dintre ele. [[Mulțime vagă|Teoria mulțimilor vagi]] atribuie un „grad de adevăr” (între 0 și 1) unor afirmații vagi precum „Alice este bătrână” (sau „bogată”, „înaltă” sau „înfometată”) care sunt prea imprecise din punct de vedere lingvistic pentru a fi complet adevărate sau complet false. [[Logică fuzzy|Logica fuzzy]] este folosită cu succes în [[Control system|sistemele de control]] pentru a permite experților să contribuie cu reguli vagi precum „dacă ești aproape de stația de destinație și te miști rapid, crește presiunea de frânare a trenului”; aceste reguli vagi pot fi rafinate numeric în cadrul sistemului. Logica fuzzy nu reușește să scaleze bine în bazele de cunoștințe; mulți cercetători de IA sunt reticenți față de validitatea inferențelor de logică fuzzy.{{efn|„Există multe tipuri diferite de incertitudine, neclaritate și ignoranță... [Noi] confirmăm independent inadecvarea sistemelor de raționare pe incertitudine, care propagă factori numerici numai după ce [[Conectori logici|conectori]] apar în aserțiuni.”<ref>{{cite journal|last1=Elkin|first1=Charles|title=The paradoxical success of fuzzy logic|journal=IEEE Expert|date=1994|volume=9|issue=4|pages=3–49|doi=10.1109/64.336150|citeseerx=10.1.1.100.8402}}</ref>}}<ref name="Fuzzy logic"> [[Fuzzy logic|Fizica logică]] : </ref><ref>{{Citat știre|title=What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic?|url=https://www.scientificamerican.com/article/what-is-fuzzy-logic-are-t/|accessdate=5 May 2018|language=en|journal=Scientific American}}</ref>

[[Default logic|Logicile implicite]], [[Non-monotonic logic|cele nemonotone]] și [[Circumscription (logic)|circumscrierea]]<ref name="Default reasoning and non-monotonic logic"> Raționamentul [[Default logic|implicit]] și [[Default logic|logica implicită]] , [[Default logic|logica]] [[Non-monotonic logic|non-monotonică]] , [[Circumscription (logic)|circumscripția]] , [[Closed world assumption|ipoteza închisă a lumii]] , [[Abductive reasoning|răpirea]] (Poole ''et al.'' , Răpirea locurilor sub "raționamentul implicit", Luger ''et al.'' </ref> sunt forme de logică concepute pentru a ajuta la raționamentul implicit și la [[Qualification problem|problema calificării]]. Mai multe extensii de logică au fost concepute pentru a gestiona domenii specifice ale [[Knowledge representation|cunoașterii]], cum ar fi: [[Description logic|logica descriptivă]];<ref name="Representing categories and relations"> Reprezentarea categoriilor și a relațiilor: [[Semantic network|Rețele semantice]] , [[Description logic|logica descriptivă]] , [[Inheritance (computer science)|moștenire]] (inclusiv [[Frame (artificial intelligence)|cadre]] și [[Scripts (artificial intelligence)|scripturi]] ): </ref> [[Situation calculus|calculul de situație]], [[Event calculus|calculul de evenimente]] și [[Fluent calculus|calculul fluent]] (pentru reprezentarea evenimentelor și a timpului);<ref name="Representing time"> Reprezentarea evenimentelor și a timpului: [[Situation calculus|Calculul situației]] , [[Situation calculus|calculul]] [[Event calculus|evenimentului]] , [[Fluent calculus|calculul fluent]] (inclusiv rezolvarea problemei [[Frame problem|cadrului]] ): </ref> [[Cauzalitate|calculul cauzal]];<ref name="Representing causation"> [[Causality#Causal calculus|Calculul cauzal]] : </ref> calculul de credință;<ref> "Calculul credinței și rațiunea incertă", Yen-Teh Hsia </ref> și [[Modal logic|logicile modale]].<ref name="Representing knowledge about knowledge"> Reprezentarea cunoștințelor despre cunoaștere: [[Belief calculus|Calculul credinței]] , [[Modal logic|logica modală]] : </ref>

În ansamblu, logica simbolică calitativă este fragilă și scalează rău în prezența zgomotului sau a altei incertitudini. Excepțiile de la reguli sunt numeroase și este dificil pentru sistemele logice să funcționeze în prezența unor reguli contradictorii.{{sfn|Domingos|2015|loc=chapter 6}}<ref>{{Citat revistă|nume=Demey|nume2=Kooi|nume3=Sack|prenume=Lorenz|prenume2=Barteld|prenume3=Joshua|dată=2013-03-07|titlu=Logic and Probability|url=https://plato.stanford.edu/archives/sum2017/entries/logic-probability/|access-date=5 May 2018}}</ref>

=== Metode probabilistice pentru raționament incert ===
[[Fișier:EM_Clustering_of_Old_Faithful_data.gif|dreapta|cadru| Clustering prin [[expectation-maximization]] al datelor de erupție a lui [[Old Faithful]] pornește de la o presupunere aleatorie, dar apoi converge cu succes într-o clusterizare precisă a celor două moduri fizice distincte de erupție. ]]
Multe probleme din IA (de raționament, planificare, învățare, percepție și robotică) necesită ca agentul să funcționeze cu informații incomplete sau nesigure. Cercetătorii de IA au conceput o serie de instrumente puternice pentru a rezolva aceste probleme utilizând metode din teoria [[Probabilitate|probabilităților]] și din economie. <ref name="Stochastic methods for uncertain reasoning"> Metode stochastice pentru raționamentul incert: </ref>

[[Rețea bayesiană|Rețelele bayesiene]]<ref name="Bayesian networks"> [[Bayesian network|Rețelele bayesiene]] : </ref> sunt un instrument foarte general, care poate fi folosit pentru un număr mare de probleme: de raționament (folosind algoritmul [[Bayesian inference|inferențelor bayesiane]]),<ref name="Bayesian inference"> [[Bayesian inference|Bayesian]] algoritmul de [[Bayesian inference|inferență]] : </ref> de [[Învățare automată|învățare]] (folosind [[Expectation-maximization algorithm|algoritmul EM]]),{{efn|Expectation-Maximization, unul din cei mai populari algoritmi de învățare automată, permite clusterizarea în prezența unor [[latent variables|variabile latente]] necunoscute{{sfn|Domingos|2015|p=210}}}}<ref name="Bayesian learning"> [[Bayesian learning|Învățarea Bayesian]] și [[Expectation-maximization algorithm|algoritmul de așteptare-maximizare]] : </ref> [[Automated planning and scheduling|planificare]] (prin utilizarea [[Decision network|rețelelor decizionale]]) <ref name="Bayesian decision networks"> [[Bayesian decision theory|Teoria deciziei Bayesian]] și [[Decision network|rețelele decizionale]] Bayesian: </ref> și [[Machine perception|percepție]] (utilizând [[Dynamic Bayesian network|rețele bayesiene dinamice]]).<ref name="Stochastic temporal models"> Modele temporale stochastice: </ref> Se pot utiliza și algoritmi probabilistici pentru filtrarea, predicția, rafinarea și găsirea de explicații pentru fluxurile de date, ajutând sistemele de [[Machine perception|percepție]] să analizeze procesele care apar în timp (de exemplu, [[Hidden Markov model|modelele Markov ascunse]] sau [[Kalman filter|filtrele Kalman]]).<ref name="Stochastic temporal models" /> În comparație cu logica simbolică, inferența bayesiană formală este costisitoare din punct de vedere computațional. Pentru ca inferența să fie tractabilă, majoritatea observațiilor trebuie să fie [[Conditionally independent|dependente condiționat]] una de cealaltă. Graficele complexe cu „bucle” ([[Ciclu (teoria grafurilor)|cicluri]] neorientate) pot necesita o metodă sofisticată, cum ar fi [[Markov Chain Monte Carlo|metoda Monte Carlo cu lanțuri Markov]] , care răspândește un ansamblu de [[Random walk|drumuri aleatoare]] prin întreaga rețea bayesiană și încearcă să conveargă la o evaluare a probabilităților condiționate. Rețelele bayesiene sunt utilizate pe [[Xbox Live]] pentru a evalua și a potrivi jucătorii între ei; victoriile și înfrângerile sunt „dovezi” despre cât de bun este un jucător. [[Adsense|AdSense]] utilizează o rețea bayesiană cu peste 300 de milioane de muchii pentru a afla ce reclame să afișeze.{{sfn|Domingos|2015|loc=chapter 6}}

Un concept-cheie, provenit din știința economiei, este cel de „[[utilitate]]”: o măsură a cât de valoros este ceva pentru un agent inteligent. S-au dezvoltat instrumente matematice precise care analizează modul în care un agent poate să facă alegeri și să planifice, utilizând [[Decision theory|teoria deciziei]], [[Decision analysis|analiza deciziei]],<ref name="Decisions theory and analysis"> [[Decision theory|teoria deciziei]] și [[Decision analysis|analiza deciziei]] : </ref> și [[Applied information economics|teoria valorii informației]].<ref name="Information value theory"> [[Applied information economics|Teoria valorilor informațiilor]] : </ref> Aceste instrumente includ modele, cum ar fi [[Markov decision process|procesele de decizie Markov]],<ref name="Markov decision process"> [[Markov decision process|Markov procese decizionale]] și [[Decision network|rețele]] dinamice de [[Decision network|decizie]] : </ref> [[Decision network|rețele dinamice de decizie]],<ref name="Stochastic temporal models"> Modele temporale stochastice: </ref> [[Teoria jocurilor|teoria jocurilor]] și [[Mechanism design|designul mecanismelor economice]].<ref name="Game theory and mechanism design"> [[Game theory|Teoria jocului]] și [[Mechanism design|designul mecanismului]] : </ref>

=== Clasificatori și metode statistice de învățare ===
Cele mai simple aplicații de IA pot fi împărțite în două tipuri: clasificatori („dacă sclipește, atunci diamant”) și controlori („dacă lucios, atunci ridică”). Controlorii mai și clasifică însă condițiile înainte de a infera acțiuni și, prin urmare, clasificarea formează o parte centrală a multor sisteme cu IA. [[Classifier (mathematics)|Clasificatorii]] sunt funcții care utilizează [[Pattern matching|aplicarea șabloanelor]] pentru a determina potrivirea cea mai apropiată. Ele pot fi reglate conform exemplelor, făcându-le foarte atractive pentru utilizarea în IA. Aceste exemple sunt cunoscute ca observații sau șabloane. În învățarea supravegheată, fiecare model aparține unei anumite clase predefinite. O clasă poate fi văzută ca o decizie care trebuie luată. Toate observațiile combinate cu etichetele lor de clasă sunt cunoscute ca un set de date. Atunci când se primește o nouă observație, această observație este clasificată pe baza experienței anterioare.<ref name="Classifiers"> Metode statistice de învățare și [[Classifier (mathematics)|clasificatori]] : </ref>

Un clasificator poate fi instruit în diferite moduri; există multe abordări statistice și de [[Învățare automată|învățare automată]]. [[Decision tree learning|Arborele de decizie]]<ref name="Decision tree"> [[Alternating decision tree|Arborele de decizie]] : </ref> este probabil cel mai utilizat algoritm de învățare automată.{{sfn|Domingos|2015|p=88}} Alți clasificatori utilizați pe scară largă sunt [[Artificial neural network|rețelele neurale]],<ref name="Neural networks"> Rețele neuronale și conexiune: </ref> [[K-nearest neighbor algorithm|algoritmul k-NN]],{{efn|Cea mai frecvent folosită metodă de IA analogic până pe la jumătatea anilor 1990{{sfn|Domingos|2015|p=187}}}}<ref name="K-nearest neighbor algorithm"> [[K-nearest neighbor algorithm|Cel mai apropiat algoritm de vecinătate]] : </ref> [[Kernel methods|metodele kernel]], cum ar fi [[Support vector machine|support-vector machine]] (SVM),{{efn|SVM a luat locul lui k-NN în anii 1990.{{sfn|Domingos|2015|p=188}}}}<ref name="Kernel methods"> [[Kernel methods|metode de kernel,]] cum ar fi [[Support vector machine|mașină vector de suport]] : </ref> [[Gaussian mixture model|modelul gaussian de amestec]]<ref name="Gaussian mixture model"> [[Gaussian mixture model|Model de amestec gaussian]] : </ref> și [[Naive Bayes classifier|clasificatorul Bayes naiv]].{{efn|Bayes naiv ar fi „cea mai utilizată metodă de învățare” la Google, în parte datorită scalabilității sale.{{sfn|Domingos|2015|p=152}}}}<ref name="Naive Bayes classifier"> [[Naive Bayes classifier|Naive Bayes clasificator]] : </ref> Performanța clasificatorului depinde în mare măsură de caracteristicile datelor care urmează a fi clasificate, cum ar fi dimensiunea setului de date, distribuția eșantioanelor pe clase, dimensionalitatea și nivelul zgomotului. Clasificatorii bazați pe modele funcționează bine dacă modelul asumat se potrivește extrem de bine pe datele reale. În caz contrar, dacă nu există un model compatibil și dacă singura preocupare este acuratețea (și nu viteza sau scalabilitatea), se știe că clasificatorii discriminatori (în special SVM) tind să fie mai exacți decât clasificatorii bazați pe model, cum ar fi „Bayes naiv” pe cele mai multe seturi de date din practică.<ref name="Classifier performance"> Clasificarea performanțelor: </ref>{{sfn|Russell|Norvig|2009|loc=18.12: Learning from Examples: Summary}}

=== Rețele neurale artificiale ===
[[Fișier:Artificial_neural_network.svg|miniatura| O rețea neurală este un grup de noduri interconectate, asemănătoare cu vasta rețea de [[Neuron|neuroni]] din creierul uman. ]]
Rețelele neurale s-au inspirat din arhitectura neuronilor din creierul uman. Un „neuron” simplu ''N'' acceptă intrări de la mai mulți neuroni, fiecare dintre ei, atunci când este activat, aruncă un „vot” ponderat pentru sau împotriva activării neuronului ''N''. Învățarea necesită un algoritm de ajustare a acestor ponderi pe baza datelor de antrenament; un algoritm simplu (pe principiul „[[Hebbian learning|conectează ce se declanșează împreună]]”) este de a crește ponderea conexiunii între doi neuroni conectați atunci când activarea unuia declanșează activarea cu succes a altuia. Rețeaua formează „concepte” care sunt distribuite într-o subrețea de neuroni partajați{{efn|Each individual neuron is likely to participate in more than one concept.}} care tind să se activeze împreună; de exemplu, un concept care înseamnă „picior” ar putea fi cuplat cu o subrețea care înseamnă „picior”, care include sunetul pentru „picior”. Neuronii au un spectru continuu de activare; mai mult, ei pot procesa intrările neliniar, în loc să cântărească voturi simple. Rețelele neurale moderne pot învăța atât funcții continue, cât și, surprinzător, operații logice digitale. Rețelele neuronale au avut succese la prezicerea evoluției pieței bursiere și (în 1995) un autovehicul care se conducea în mare parte automat.{{efn|Conducerea vehicului din proiectul [[History of autonomous cars#1990s|„No Hands Across America”]] 1995 a necesitat „doar câteva intervenții umane”.}}{{sfn|Domingos|2015|loc=Chapter 4}} În anii 2010, progresele înregistrate în rețelele neurale ce utilizează învățarea în profunzime au propulsat domeniul IA în conștiința publică, și au contribuit la o creștere enormă a investițiilor corporative în IA; de exemplu, [[Mergers and acquisitions|fuziunile și achizițiile]] de companii în domeniul IA în 2017 erau de peste 25 de ori mai substanțiale decât în 2015.<ref>{{Citat știre|title=Why Deep Learning Is Suddenly Changing Your Life|url=http://fortune.com/ai-artificial-intelligence-deep-machine-learning/|data=2016|accessdate=12 March 2018|journal=Fortune}}</ref><ref>{{Citat știre|title=Google leads in the race to dominate artificial intelligence|url=https://www.economist.com/news/business/21732125-tech-giants-are-investing-billions-transformative-technology-google-leads-race|data=2017|accessdate=12 March 2018|language=en|journal=The Economist}}</ref>

Studiul [[Artificial neural network|rețelelor neurale]] fără învățare<ref name="Neural networks"> Rețele neuronale și conexiune: </ref> a început în deceniul anterior creării domeniului cercetării IA, în lucrarea lui [[Walter Pitts]] și a lui [[Warren McCullouch]]. [[Frank Rosenblatt]] a inventat [[Perceptron|perceptronul]], o rețea de învățare cu un singur strat, similar cu vechiul concept de [[Linear regression|regresie liniară]] . Printre pionierii timpurii ale domeniului se numără și [[Alexey Grigorevich Ivakhnenko|Alexei Grigorevici Ivahnenko]], [[Teuvo Kohonen]], [[Stephen Grossberg]], [[Kunihiko Fukushima]], Christoph von der Malsburg, David Willshaw, [[Shun-Ichi Amari]], [[Bernard Widrow]], [[John Hopfield]], [[Eduardo R. Caianiello]] și alții.

Principalele categorii de rețele sunt [[Feedforward neural network|rețelele neurale feedforward]] sau aciclice (unde semnalul trece într-o singură direcție) și [[Recurrent neural network|rețele neurale recurente]] (care permit feedback și memorii pe termen scurt ale evenimentelor de intrare anterioare). Printre cele mai populare rețele feedforward sunt [[Perceptron|perceptronii]], [[Multi-layer perceptron|perceptronii multi-strat]] și [[Radial basis network|rețelele cu bază radială]].<ref name="Feedforward neural networks"> [[Feedforward neural network|Rețelele neuronale de alimentare]] , [[Perceptron|perceptronurile]] și [[Radial basis network|rețelele radiale de bază]] : </ref> Rețelele neurale pot fi aplicate problemei [[Intelligent control|controlului inteligent]] (pentru robotică) sau [[Învățare automată|învățării]], folosind tehnici precum [[Hebbian learning|învățarea Hebbian]] („conectează ce se declanșează împreună”), [[GMDH]] sau [[Competitive learning|învățare competitivă]].<ref name="Learning in neural networks"> [[Competitive learning|Învățarea competitivă]] , [[Competitive learning|învățarea]] coincidenței [[Hebbian theory|Hebbian]] , [[Hopfield network|rețelele Hopfield]] și rețelele de atractori: </ref>

Astăzi, rețelele neurale sunt adesea antrenate prin algoritmul [[backpropagation]], care există de pe la 1970 ca invers al [[Automatic differentiation|diferențierii automate]] publicate de [[Seppo Linnainmaa]]<ref name="lin1970"> [[Seppo Linnainmaa]] (1970). Reprezentarea erorii cumulative de rotunjire a unui algoritm ca expansiune Taylor a erorilor locale de rotunjire. Teza de masterat (în limba finlandeză), Univ. Helsinki, 6-7. </ref><ref name="grie2012"> Griewank, Andreas (2012). Cine a inventat modul invers de diferențiere? Povești de optimizare, Documenta Matematica, Extra Volume ISMP (2012), 389-400. </ref> și a fost introdus în rețelele neurale de [[Paul Werbos]].<ref name="WERBOS1974"> [[Paul Werbos]] , "Dincolo de regresie: noi instrumente de predicție și analiză în științele comportamentale", ''teză de doctorat, Universitatea Harvard'' , 1974. </ref><ref name="werbos1982">[[Paul Werbos]] (1982). Applications of advances in nonlinear sensitivity analysis. In System modeling and optimization (pp. 762–770). Springer Berlin Heidelberg. [http://werbos.com/Neural/SensitivityIFIPSeptember1981.pdf Online] {{Webarchive}}</ref><ref name="Backpropagation"> [[Backpropagation]] : </ref>

[[Hierarchical temporal memory|Memoria temporală ierarhică]] este o abordare care modelează unele dintre proprietățile structurale și algoritmice ale [[Neocortex|neocortexului]].<ref name="Hierarchical temporal memory"> [[Hierarchical temporal memory|Memoria temporală ierarhică]] : </ref>

Pe scurt, majoritatea rețelelor neurale utilizează o anumită formă de [[Gradient descent|coborâre de gradient]] pe o topologie neurală creată manual. Cu toate acestea, unele grupuri de cercetare, cum ar fi [[Uber (companie)|Uber]], susțin că o [[Neuroevolution|neuroevoluție]] simplă, în care prin mutație se generează noi topologii și ponderi de rețele neurale, poate fi competitivă chiar și în fața unor abordări sofisticate cu coborâre de gradient. Un avantaj al neuroevoluției este acela că ar putea fi mai puțin predispusă la a fi blocată într-o „fundătură”.<ref>{{Citat știre|title=Artificial intelligence can 'evolve' to solve problems|url=http://www.sciencemag.org/news/2018/01/artificial-intelligence-can-evolve-solve-problems|data=10 January 2018|accessdate=7 February 2018|language=en|journal=Science {{!}} AAAS}}</ref>

==== Rețele neurale cu feedforward ====
[[Deep learning|Învățarea profundă]] este orice [[Artificial neural network|rețea neurală artificială]] care poate învăța un lanț lung de legături de cauzalitate. De exemplu, o rețea cu feedforward cu șase straturi ascunse poate învăța un lanț de cauzalitate cu șapte legături (șase straturi ascunse + stratul de ieșire) și are o profunzime de „[[Deep learning#Credit assignment|alocare a creditului]]” (CAP) de șapte. Multe sisteme cu învățare profundă trebuie să poată învăța lanțuri cu zece sau mai multe legături de cauzalitate.<ref name="schmidhuber2015" /> Învățarea profundă a transformat multe subdomenii importante ale inteligenței artificiale, inclusiv [[Computer vision|vederea mașinilor]], [[Recunoaștere vocală|recunoașterea vorbirii]], [[Prelucrarea limbajului natural|prelucrarea limbajului natural]] și altele.<ref name="goodfellow2016">Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press. [http://www.deeplearningbook.org Online] {{Webarchive}}</ref><ref name="HintonDengYu2012">{{Citat revistă|nume=Hinton|nume2=Deng|nume3=Yu|nume4=Dahl|nume5=Mohamed|nume6=Jaitly|nume7=Senior|nume8=Vanhoucke|nume9=Nguyen|prenume=G.|prenume2=L.|prenume3=D.|prenume4=G.|prenume5=A.|prenume6=N.|prenume7=A.|prenume8=V.|prenume9=P.|an=2012|titlu=Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups|url=|journal=IEEE Signal Processing Magazine|volum=29|număr=6|pagini=82–97|doi=10.1109/msp.2012.2205597}}</ref><ref name="schmidhuber2015">{{Citat revistă|nume=Schmidhuber|prenume=J.|an=2015|titlu=Deep Learning in Neural Networks: An Overview|journal=Neural Networks|volum=61|pagini=85–117|pmid=25462637|doi=10.1016/j.neunet.2014.09.003}}</ref>

Conform unei vederi de ansamblu,<ref name="scholarpedia">{{Citat revistă|nume=Schmidhuber|prenume=Jürgen|legătură-autor=Jürgen Schmidhuber|an=2015|titlu=Deep Learning|journal=Scholarpedia|volum=10|număr=11|pagină=32832|bibcode=2015SchpJ..1032832S|doi=10.4249/scholarpedia.32832}}</ref> expresia {{Lang|en|Deep Learning}} a fost introdusă în comunitatea de [[Învățare automată|învățare automată]] de către [[Rina Dechter]] în 1986<ref name="dechter1986">[[Rina Dechter]] (1986). Learning while searching in constraint-satisfaction problems. University of California, Computer Science Department, Cognitive Systems Laboratory.[https://www.researchgate.net/publication/221605378_Learning_While_Searching_in_Constraint-Satisfaction-Problems Online] {{Webarchive}}</ref> și a căpătat anvergură după ce Igor Aizenberg si colegii săi au introdus-o în [[Artificial Neural Networks|rețelele neurale artificiale]] în 2000.<ref name="aizenberg2000"> Igor Aizenberg, Naum N. Aizenberg, Joos PL Vandewalle (2000). Neuronii binari multi-valori și universali: teorie, învățare și aplicații. Springer Știință și Business Media. </ref> Primele rețele rețele funcționale de învățare profundă au fost publicate de [[Alexey Grigorevich Ivakhnenko|Alexei Grigorevici Ivahnenko]] și VG Lapa în 1965.<ref>{{Citat carte|titlu=Cybernetic Predicting Devices|nume=Ivakhnenko|prenume=Alexey|editură=Naukova Dumka|an=1965|isbn=|locul-publicării=Kiev|pagini=}}</ref> Aceste rețele sunt antrenate strat cu strat. Articolul lui Ivahnenko din 1971 <ref name="ivak1971">{{Citat revistă|nume=Ivakhnenko|prenume=Alexey|dată=1971|titlu=Polynomial theory of complex systems|url=|journal=IEEE Transactions on Systems, Man and Cybernetics (4)|pagini=364–378|pmid=|doi=|access-date=}}</ref> descrie învățarea unui perceptron multistrat feedforward profund cu opt straturi, deja mult mai profund decât multe rețele ulterioare. În 2006, o publicație a lui [[Geoffrey Hinton]] și a lui Ruslan Salahutdinov a introdus un alt mod de pre-antrenare a unor rețele neurale feedforward multistrat, tratând fiecare strat pe rând ca pe o [[Restricted Boltzmann machine|mașină Boltzmann restrânsă]] [[Unsupervised learning|nesupravegheată]], apoi folosind [[backpropagation]] [[Supervised learning|supravegheat]] pentru reglajul fin.{{sfn|Hinton|2007}} Asemenea rețelelor neurale artificiale superficiale, rețelele neurale profunde pot modela relații neliniare complexe. În ultimii ani, progresele atât în domeniul algoritmilor de învățare automată, cât și în domeniul hardware-ului calculatoarelor au condus la metode mai eficiente de formare a rețelelor neurale profunde care conțin mai multe straturi de unități neliniare ascunse și un strat de ieșire foarte mare.<ref>{{Citat web|url=http://airesearch.com/ai-research-papers/deep-neural-networks-for-acoustic-modeling-in-speech-recognition/|nume=Research|accessdate=23 October 2015|date=23 October 2015|first1=AI|lucrare=airesearch.com|titlu=Deep Neural Networks for Acoustic Modeling in Speech Recognition}}</ref>

Învățarea profundă utilizează adesea [[Convolutional neural network|rețele neurale convoluționale]] (RNC), ale căror origini par a fi în [[Neocognitron|Neocognitronul]] introdus de [[Kunihiko Fukushima]] în 1980.<ref name="FUKU1980">{{Citat revistă|nume=Fukushima|prenume=K.|an=1980|titlu=Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position|url=|journal=Biological Cybernetics|volum=36|număr=4|pagini=193–202|pmid=7370364|doi=10.1007/bf00344251}}</ref> În 1989, [[Yann LeCun]] și colegii săi au aplicat [[backpropagation]] pe o astfel de arhitectură. La începutul anilor 2000, într-o aplicație industrială, RNC prelucrau deja aproximativ 10% până la 20% din toate cecurile scrise în SUA.<ref name="lecun2016slides">[[Yann LeCun]] (2016). Slides on Deep Learning [https://indico.cern.ch/event/510372/ Online] {{Webarchive}}</ref> Începând cu 2011, implementările rapide de RNC pe unitățile de procesare grafică au câștigat numeroase concursuri de recunoaștere vizuală a formelor.<ref name="schmidhuber2015">{{Citat revistă|nume=Schmidhuber|prenume=J.|an=2015|titlu=Deep Learning in Neural Networks: An Overview|journal=Neural Networks|volum=61|pagini=85–117|pmid=25462637|doi=10.1016/j.neunet.2014.09.003}}</ref>

RNC cu 12 straturi convoluționale au fost utilizate împreună cu [[Reinforcement learning|învățarea prin întărire]] de către „[[AlphaGo]] Lee” al lui Deepmind, programul care l-a învins pe campionul la [[Go (joc)|go]] în 2016.<ref name="Nature2017">{{Citat revistă|nume=Silver|nume2=Schrittwieser|nume3=Simonyan|nume4=Antonoglou|nume5=Huang|nume6=Guez|nume7=Hubert|nume8=Baker|nume9=Lai|prenume=David|prenume2=Julian|prenume3=Karen|prenume4=Ioannis|prenume5=Aja|prenume6=Arthur|prenume7=Thomas|prenume8=Lucas|prenume9=Matthew|legătură-autor=David Silver (programmer)|legătură-autor5=Aja Huang|dată=19 October 2017|titlu=Mastering the game of Go without human knowledge|journal=[[Nature (journal)|Nature]]|volum=550|număr=7676|pagini=354–359|issn=0028-0836|pmid=29052630|bibcode=2017Natur.550..354S|doi=10.1038/nature24270|quote=AlphaGo Lee... 12 convolutional layers}}{{closed access}}</ref>

==== Rețele neuronale profunde recurente ====
Încă de la început, învățarea profundă a fost aplicată și la învățarea de succesiuni cu [[Recurrent neural networks|rețele neurale recurente]]<ref name="Recurrent neural networks"> [[Recurrent neural networks|Retele neuronale recurente]] , [[Hopfield nets|plase Hopfield]] : </ref> care sunt, teoretic, Turing-complete<ref>{{Citat revistă|nume=Hyötyniemi|prenume=Heikki|dată=1996|titlu=Turing machines are recurrent neural networks|journal=Proceedings of STeP '96/Publications of the Finnish Artificial Intelligence Society|pagini=13–24}}</ref> și pot executa programe arbitrare pentru a procesa secvențe arbitrare de intrări. Adâncimea unei RN recurent este nelimitată și depinde de lungimea secvenței sale de intrare; astfel, o RN recurentă este un exemplu de învățare profundă.<ref name="schmidhuber2015">{{Citat revistă|nume=Schmidhuber|prenume=J.|an=2015|titlu=Deep Learning in Neural Networks: An Overview|journal=Neural Networks|volum=61|pagini=85–117|pmid=25462637|doi=10.1016/j.neunet.2014.09.003}}</ref> Rețelele neurale recurente pot fi antrenate prin [[Gradient descent|coborâre de gradient]] <ref> PJ Werbos. Generalizarea backpropagation-ului cu aplicarea pe un model recurent de piață a gazelor " ''Neural Networks'' 1, 1988. </ref> <ref> AJ Robinson și F. Fallside. Rețeaua de propagare a erorilor dinamice cauzate de utilitate. Raport Tehnic CUED / F-INFENG / TR.1, Departamentul de Inginerie al Universității din Cambridge, 1987. </ref> <ref> RJ Williams și D. Zipser. Gradienți bazate pe algoritmi de învățare pentru rețele recurente și complexitatea lor computațională. În propagarea înapoi: teorie, arhitecturi și aplicații. Hillsdale, NJ: Erlbaum, 1994. </ref> dar suferă de [[Vanishing gradient problem|problema dispariției gradientului]].<ref name="goodfellow2016">Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press. [http://www.deeplearningbook.org Online] {{Webarchive}}</ref><ref name="hochreiter1991">[[Sepp Hochreiter]] (1991), [http://people.idsia.ch/~juergen/SeppHochreiter1991ThesisAdvisorSchmidhuber.pdf Untersuchungen zu dynamischen neuronalen Netzen] {{Webarchive}}, Diploma thesis. Institut f. Informatik, Technische Univ. Munich. Advisor: J. Schmidhuber.</ref> În 1992, s-a demonstrat că pre-antrenarea nesupravegheată a unui set de rețele neurale recurente poate accelera învățarea ulterioară supravegheată a problemelor secvențiale profunde.<ref name="SCHMID1992">{{Citat revistă|nume=Schmidhuber|prenume=J.|an=1992|titlu=Learning complex, extended sequences using the principle of history compression|url=|journal=Neural Computation|volum=4|număr=2|pagini=234–242|doi=10.1162/neco.1992.4.2.234}}</ref>

Numeroși cercetători folosesc acum variante ale unei RN recurente pentru învățare profundă numită [[Long short-term memory|Long-Short Term Memory]] (LSTM), publicată de Hochreiter & Schmidhuber în 1997.<ref name="lstm"> [[Sepp Hochreiter|Hochreiter, Sepp]] ; și [[Jürgen Schmidhuber|Schmidhuber, Jürgen]] ; ''Memorie pe termen scurt pe termen scurt'' , computament neuronal, 9 (8): 1735-1780, 1997 </ref> LSTM este adesea antrenată prin Connectionist Temporal Classification (CTC).<ref name="graves2006"> Alex Graves, Santiago Fernandez, Faustino Gomez și [[Jürgen Schmidhuber]] (2006). Clasificarea temporală a conectivității: Etichetarea datelor de secvență nesegmentate cu plase neuronale recurente. Proceedings of ICML'06, pp. 369-376. </ref> La Google, Microsoft și Baidu, această abordare a revoluționat [[Recunoaștere vocală|recunoașterea vorbirii]].<ref name="hannun2014">{{Cite arXiv|last1=Hannun|title=Deep Speech: Scaling up end-to-end speech recognition|eprint=1412.5567}}</ref><ref name="sak2014"> Hasim Sak și Andrew Senior și Francoise Beaufays (2014). Arhitecturi neuronale recurente de memorie pe termen scurt pentru memorie acustică la scară largă. Proceedings of Interspeech 2014. </ref><ref name="liwu2015">{{Cite arXiv|last1=Li|title=Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition|eprint=1410.4281}}</ref> De exemplu, în 2015, recunoașterea vocală de la Google a înregistrat un salt spectaculos de performanță de 49% cu ajutorul lui LSTM instruit de CTC, disponibil acum prin [[Google Voice]] către utilizatorii a miliarde de smartphone-uri.<ref name="sak2015">Haşim Sak, Andrew Senior, Kanishka Rao, Françoise Beaufays and Johan Schalkwyk (September 2015): [http://googleresearch.blogspot.ch/2015/09/google-voice-search-faster-and-more.html Google voice search: faster and more accurate.] {{Webarchive}}</ref> Google a folosit de asemenea LSTM pentru a îmbunătăți traducerea automată,<ref name="sutskever2014">{{Cite arXiv|last1=Sutskever|title=Sequence to Sequence Learning with Neural Networks|eprint=1409.3215}}</ref> modelarea limbajului<ref name="vinyals2016">{{Cite arXiv|last1=Jozefowicz|title=Exploring the Limits of Language Modeling|eprint=1602.02410}}</ref> și prelucrarea lingvistică multilingvă.<ref name="gillick2015">{{Cite arXiv|last1=Gillick|title=Multilingual Language Processing From Bytes|eprint=1512.00103}}</ref> LSTM combinat cu RNC a îmbunătățit și descrierea automată a imaginilor<ref name="vinyals2015">{{Cite arXiv|last1=Vinyals|title=Show and Tell: A Neural Image Caption Generator|eprint=1411.4555}}</ref> și o multitudine de alte aplicații.

=== Evaluarea progresului ===
Ca și electricitatea sau motorul cu abur, IA este o tehnologie cu scop general. Nu există un consens despre cum să se caracterizeze sarcinile la care IA tinde să exceleze.<ref>{{Citat știre|title=What can machine learning do? Workforce implications|url=http://science.sciencemag.org/content/358/6370/1530|prenume=Erik|nume=Brynjolfsson|data=22 December 2017|accessdate=7 May 2018|language=en|doi=10.1126/science.aap8062|nume2=Mitchell|prenume2=Tom|journal=Science|pages=1530–1534|bibcode=2017Sci...358.1530B}}</ref> Deși proiecte precum [[AlphaZero]] au reușit să-și genereze propriile cunoștințe de la zero, multe alte proiecte de învățare automată necesită seturi de date de antrenament mari.<ref>{{Citat știre|title='It's able to create knowledge itself': Google unveils AI that learns on its own|url=https://www.theguardian.com/science/2017/oct/18/its-able-to-create-knowledge-itself-google-unveils-ai-learns-all-on-its-own|prenume=Ian|nume=Sample|data=18 October 2017|accessdate=7 May 2018|language=en|journal=the Guardian}}</ref><ref>{{Citat știre|title=The AI revolution in science|url=http://www.sciencemag.org/news/2017/07/ai-revolution-science|data=5 July 2017|accessdate=7 May 2018|language=en|journal=Science {{!}} AAAS}}</ref> Cercetătorul [[Andrew Ng]] a sugerat, ca o „regulă aproximativă extrem de imperfectă”, că „aproape orice poate fi făcut de un om cu mai puțin de o secundă de gândire mentală, poate să fie, acum sau în viitorul apropiat, automatizat prin utilizarea IA”.<ref>{{Citat știre|title=Will your job still exist in 10 years when the robots arrive?|url=http://www.scmp.com/tech/innovation/article/2098164/robots-are-coming-here-are-some-jobs-wont-exist-10-years|data=2017|accessdate=7 May 2018|language=en|journal=[[South China Morning Post]]}}</ref> [[Moravec's paradox|Paradoxul lui Moravec]] sugerează că IA rămâne în urma omului la multe sarcini pentru a căror bună îndeplinire creierul uman a evoluat anume.<ref name="The Economist">{{Citat știre|title=IKEA furniture and the limits of AI|url=https://www.economist.com/news/leaders/21740735-humans-have-had-good-run-most-recent-breakthrough-robotics-it-clear|data=2018|accessdate=24 April 2018|language=en|journal=The Economist}}</ref>

Jocurile oferă un punct de referință foarte mediatizat pentru evaluarea ratei progresului. [[AlphaGo]] a adus, în preajma lui 2016, sfârșitul epocii testelor cu jocuri de masă. Jocurile de [[Perfect knowledge|cunoștințe imperfecte]] oferă noi provocări pentru IA în domeniul [[Teoria jocurilor|teoriei jocurilor]].<ref>{{Citat știre|title=AlphaGo beats human Go champ in milestone for artificial intelligence|url=http://www.latimes.com/world/asia/la-fg-korea-alphago-20160312-story.html|prenume=Tracey Lien, Steven|nume=Borowiec|data=2016|accessdate=7 May 2018|journal=latimes.com}}</ref><ref>{{Citat știre|title=Superhuman AI for heads-up no-limit poker: Libratus beats top professionals|url=http://science.sciencemag.org/content/359/6374/418|prenume=Noam|nume=Brown|data=26 January 2018|accessdate=7 May 2018|language=en|doi=10.1126/science.aao1733|nume2=Sandholm|prenume2=Tuomas|journal=Science|pages=418–424}}</ref> [[Sport electronic|E-sporturile,]] cum ar fi [[StarCraft (serie de jocuri)|StarCraft]], continuă să furnizeze repere publice suplimentare.<ref>{{Citat revistă|nume=Ontanon|nume2=Synnaeve|nume3=Uriarte|nume4=Richoux|nume5=Churchill|nume6=Preuss|prenume=Santiago|prenume2=Gabriel|prenume3=Alberto|prenume4=Florian|prenume5=David|prenume6=Mike|dată=December 2013|titlu=A Survey of Real-Time Strategy Game AI Research and Competition in StarCraft|journal=IEEE Transactions on Computational Intelligence and AI in Games|volum=5|număr=4|pagini=293–311|doi=10.1109/TCIAIG.2013.2286295}}</ref><ref>{{Citat știre|title=Facebook Quietly Enters StarCraft War for AI Bots, and Loses|url=https://www.wired.com/story/facebook-quietly-enters-starcraft-war-for-ai-bots-and-loses/|data=2017|accessdate=7 May 2018|journal=WIRED}}</ref> Există numeroase concursuri și premii, cum ar fi [[ImageNet challenge|Imagenet Challenge]], pentru promovarea cercetării în domeniul inteligenței artificiale. Cele mai comune domenii de concurs sunt inteligența automată generală, comportamentul conversațional, data mining, [[Autonomous car|mașini robotizate]] și fotbal jucat de roboți, pe lângă jocuri convenționale.<ref>{{Citat web|url=http://image-net.org/challenges/LSVRC/2017/|accessdate=2018-11-06|lucrare=image-net.org|limbă=en|titlu=ILSVRC2017}}</ref>

„Jocul imitației” (o interpretare a [[Testul Turing|testului Turing]] din 1950 care evaluează dacă un calculator poate imita un om) este în prezent considerat prea exploatabil pentru a fi un test semnificativ.<ref>{{Citat revistă|nume=Schoenick|nume2=Clark|nume3=Tafjord|nume4=Turney|nume5=Etzioni|prenume=Carissa|prenume2=Peter|prenume3=Oyvind|prenume4=Peter|prenume5=Oren|dată=23 August 2017|titlu=Moving beyond the Turing Test with the Allen AI Science Challenge|journal=Communications of the ACM|volum=60|număr=9|pagini=60–64|doi=10.1145/3122814}}</ref> Un derivat al testului Turing este Testul Turing Public Complet Automatizat pentru Deosebirea Omului de Calculator ({{Lang|en|Completely Automated Public Turing test to tell Computers and Humans Apart}}, [[CAPTCHA]]). După cum sugerează și numele, acest lucru ajută la determinarea dacă utilizator este o persoană reală sau un computer care simulează un om. Spre deosebire de testul Turing standard, care este administrat de către un om unei mașini, CAPTCHA este administrat de o mașină unui om. Un computer cere unui utilizator să completeze un test simplu, apoi generează o notă pentru acel test. Computerele nu reușesc să rezolve problemele, deci soluțiile corecte sunt considerate a fi rezultatul faptului că testul a fost efectuat de un om. Un tip comun de CAPTCHA este un test care necesită identificarea unor litere, numere sau simboluri distorsionate care apar într-o imagine care ar fi indescifrabilă pentru un calculator.{{sfn|O'Brien|Marakas|2011}}

Testele de „inteligență universale” propuse au scopul de a compara cât de bine se comportă mașinile, oamenii și chiar animalele la seturi de probleme care sunt cât mai generice cu putință. La extrem, suita de test poate conține orice problemă posibilă, ponderată de [[Kolmogorov complexity|complexitatea Kolmogorov]]; din păcate, aceste seturi de probleme tind să fie dominate de exerciții slabe de aplicare a șabloanelor, la care o IA acordată corespunzător poate depăși cu ușurință performanța umană.<ref name="Mathematical definitions of intelligence"> Definiții matematice ale inteligenței: </ref> <ref>{{Citat revistă|nume=Hernández-Orallo|nume2=Dowe|nume3=Hernández-Lloreda|prenume=José|prenume2=David L.|prenume3=M.Victoria|dată=March 2014|titlu=Universal psychometrics: Measuring cognitive abilities in the machine kingdom|journal=Cognitive Systems Research|volum=27|pagini=50–74|doi=10.1016/j.cogsys.2013.06.001}}</ref>

== Aplicații ==
[[Fișier:Automated_online_assistant.png|miniatura| Un asistent online automat oferind servicii clienților pe o pagină web{{Mdash}} una dintre multele aplicații foarte primitive ale inteligenței artificiale ]]
IA este relevantă pentru orice sarcină intelectuală.{{sfn|Russell|Norvig|2009|p=1}} Tehnicile moderne de inteligență artificială sunt omniprezente și sunt prea numeroase pentru a fi prezentate exhaustiv aici. Frecvent, atunci când o tehnică ajunge în uz general, ea nu mai este considerată a fi inteligență artificială; acest fenomen este denimit [[AI effect|efectul IA]].{{sfn|''CNN''|2006}}

Printre exemplele de IA foarte vizibile se numără vehiculele autonome (cum ar fi [[Aeronavă fără pilot|dronele]] și [[Self-driving cars|autoturismele conduse automat]]), diagnosticul medical, unele creații artistice (cum ar fi poezia), demonstrarea unor teoreme matematice, jocurile (cum ar fi șahul sau go), motoarele de căutare (cum ar fi [[Google (motor de căutare)|Google Search]]), asistenți online (cum ar fi [[Siri]]), recunoașterea imaginilor în fotografii, filtrarea spamului, prezicerea întârzierilor zborurilor,<ref> [https://ishti.org/2018/11/19/using-artificial-intelligence-to-predict-flight-delays/ Utilizarea AI pentru a anticipa întârzierile de zbor] , Ishti.org. </ref> prezicerea deciziilor judiciare<ref name="ecthr2016">{{Citat revistă|nume=N. Aletras|nume2=D. Tsarapatsanis|nume3=D. Preotiuc-Pietro|nume4=V. Lampos|an=2016|titlu=Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective|journal=PeerJ Computer Science|volum=2|pagini=e93|doi=10.7717/peerj-cs.93}}</ref> și direcționarea reclamelor online.{{sfn|Russell|Norvig|2009|p=1}}<ref>{{Citat știre|title=The Economist Explains: Why firms are piling into artificial intelligence|url=https://www.economist.com/blogs/economist-explains/2016/04/economist-explains|data=31 March 2016|accessdate=19 May 2016|journal=[[The Economist]]|archiveurl=https://web.archive.org/web/20160508010311/http://www.economist.com/blogs/economist-explains/2016/04/economist-explains|archivedate=8 May 2016}}</ref><ref>{{Citat știre|title=The Promise of Artificial Intelligence Unfolds in Small Steps|url=https://www.nytimes.com/2016/02/29/technology/the-promise-of-artificial-intelligence-unfolds-in-small-steps.html|prenume=Steve|nume=Lohr|data=28 February 2016|accessdate=29 February 2016|journal=[[The New York Times]]|archiveurl=https://web.archive.org/web/20160229171843/http://www.nytimes.com/2016/02/29/technology/the-promise-of-artificial-intelligence-unfolds-in-small-steps.html|archivedate=29 February 2016}}</ref>

După ce site-urile de social media au depășit televiziunea ca sursă de știri pentru tineri, organizațiile de știri se bazează tot mai mult pe platformele de social media pentru generarea de distribuție,<ref>{{Citat web|url=https://www.bbc.co.uk/news/uk-36528256|nume=Wakefield, Jane|date=15 June 2016|archiveurl=https://web.archive.org/web/20160624000744/http://www.bbc.co.uk/news/uk-36528256|lucrare=BBC News|archivedate=24 June 2016|titlu=Social media 'outstrips TV' as news source for young people}}</ref> editorii majori folosesc acum tehnologia inteligenței artificiale pentru a publica mai eficient articole și de a genera volume mai mari de trafic.<ref>{{Citat web|url=https://www.bbc.co.uk/news/business-36837824|nume=Smith, Mark|date=22 July 2016|archiveurl=https://web.archive.org/web/20160725205007/http://www.bbc.co.uk/news/business-36837824|lucrare=BBC News|archivedate=25 July 2016|titlu=So you think you chose to read this article?}}</ref>

=== Sănătate ===
[[Fișier:Laproscopic_Surgery_Robot.jpg|miniatura| Un braț chirurgical al [[Sistemul chirurgical Da Vinci|Sistemului Chirurghical Da Vinci]] ]]
IA se aplică în problema de cost ridicat a dozajului{{Mdash}} unde unele rezultate sugerau că IA ar putea economisi 16 miliarde de dolari. În 2016, un studiu de pionierat efectuat în California a constatat că o formulă matematică dezvoltată cu ajutorul IA a determinat în mod corect doza exactă de medicamente imunosupresoare care să fie administrată pacienților implicați în transplante de organe. <ref>{{Citat știre|title=10 Promising AI Applications in Health Care|url=https://hbr.org/2018/05/10-promising-ai-applications-in-health-care|data=2018-05-10|accessdate=2018-08-28|journal=Harvard Business Review}}</ref>
[[Fișier:X-ray_of_a_hand_with_automatic_bone_age_calculation.jpg|miniatura| [[Projectional radiography|Radiografie]] a unei mâini, cu calcul automat al [[Bone age|vârstei oaselor]] efectuat de un software de calculator ]]
Inteligența artificială pătrunde în industria sănătății ca asistent al medicilor. Potrivit Bloomberg Technology, Microsoft a dezvoltat IA pentru a ajuta medicii să găsească tratamentele corecte pentru cancer.<ref>{{Citat web|url=https://www.bloomberg.com/news/articles/2016-09-20/microsoft-develops-ai-to-help-cancer-doctors-find-the-right-treatments|nume=Dina Bass|publisher=Bloomberg|date=20 September 2016|archiveurl=https://web.archive.org/web/20170511103625/https://www.bloomberg.com/news/articles/2016-09-20/microsoft-develops-ai-to-help-cancer-doctors-find-the-right-treatments|archivedate=11 May 2017|titlu=Microsoft Develops AI to Help Cancer Doctors Find the Right Treatments}}</ref> Există o cantitate substanțială de cercetare și un număr mare de medicamente dezvoltate pentru cancer. În detaliu, există peste 800 de medicamente și vaccinuri pentru tratarea cancerului. Acest lucru afectează negativ medicii, deoarece există prea multe opțiuni din care să aleagă, făcând mai dificilă alegerea medicamentelor potrivite pentru pacienți. Microsoft lucrează la un proiect pentru a dezvolta o mașină numită „Hanover”. Obiectivul său este de a memora toate lucrările necesare din domeniul oncologiei și de a ajuta să se prevadă care combinații de medicamente vor fi cele mai eficiente pentru fiecare pacient. Un proiect la care se lucrează în prezent este combaterea [[Acute myeloid leukemia|leucemiei mieloide]], un cancer mortal al cărui tratament nu s-a îmbunătățit de decenii. Un alt studiu a arătat că inteligența artificială este la fel de bună ca medicii instruiți în identificarea cancerelor de piele.<ref>{{Citat știre|title=Artificial intelligence 'as good as cancer doctors'|url=https://www.bbc.co.uk/news/health-38717928|prenume=James|nume=Gallagher|data=26 January 2017|accessdate=26 January 2017|language=en-GB|journal=BBC News|archiveurl=https://web.archive.org/web/20170126133849/http://www.bbc.co.uk/news/health-38717928|archivedate=26 January 2017}}</ref> Un alt proiect utilizează inteligența artificială pentru a încerca și monitoriza mai mulți pacienți cu risc crescut și acest lucru se face prin punerea de numeroase întrebări fiecărui pacient, pe baza datelor obținute din interacțiunile medicului uman cu pacientul.<ref>{{Citation}}</ref> S-a realizat un studiu cu învățare prin transfer, mașina a efectuat un diagnostic similar unui oftalmolog bine pregătit și ar putea genera o decizie în 30 de secunde dacă pacientul trebuie sau nu să fie trimis la tratament, cu o precizie de peste 95%.<ref>{{Citat web|url=https://www.cell.com/action/captchaChallenge?redirectUri=%2Fcell%2Fpdf%2FS0092-8674%2818%2930154-5.pdf|nume=Kermany|accessdate=2018-12-18|date=|archiveurl=|first1=D|last2=Goldbaum|last3=Zhang|first2=M|first3=Kang|lucrare=www.cell.com|archivedate=|titlu=Identifying Medical Diagnoses and Treatable Diseases by Image-Based Deep Learning}}</ref>

Potrivit [[CNN]], un studiu efectuat de chirurgi de la Centrul Medical National pentru Copii din Washington a demonstrat cu succes o interventie chirurgicală efectuată de un robot autonom. Echipa a supravegheat robotul în timp ce el efectua o intervenție chirurgicală pe țesuturi moi, reparând intestinul rupt al unui porc într-o intervenție chirurgicală deschisă cu o reușită mai bună decât a unui chirurg uman, după afirmațiile echipei.<ref>{{Citat știre|title=Are Autonomous Robots Your next Surgeons?|url=http://www.cnn.com/2016/05/12/health/robot-surgeon-bowel-operation/|nume=Senthilingam, Meera|data=12 May 2016|accessdate=4 December 2016|publisher=Cable News Network|journal=CNN|archiveurl=https://web.archive.org/web/20161203154119/http://www.cnn.com/2016/05/12/health/robot-surgeon-bowel-operation|archivedate=3 December 2016}}</ref> IBM și-a creat propriul calculator de inteligență artificială, [[Watson|IBM Watson]], care a depășit inteligența umană (la anumite nivele). Watson nu numai că a câștigat la show-ul de joc ''Jeopardy!'' împotriva foștilor campioni<ref>{{Citat știre|title=On 'Jeopardy!' Watson Win Is All but Trivial|url=https://www.nytimes.com/2011/02/17/science/17jeopardy-watson.html|prenume=John|nume=Markoff|data=16 February 2011|journal=The New York Times|archiveurl=https://web.archive.org/web/20170922050941/http://www.nytimes.com/2011/02/17/science/17jeopardy-watson.html|archivedate=22 September 2017}}</ref> dar a fost declarat erou după ce a diagnosticat cu succes o femeie care suferea de leucemie.<ref>{{Citat știre|title=IBM's Watson gives proper diagnosis after doctors were stumped|url=http://www.nydailynews.com/news/world/ibm-watson-proper-diagnosis-doctors-stumped-article-1.2741857|prenume=Alfred|nume=Ng|data=7 August 2016|language=en|journal=NY Daily News|archiveurl=https://web.archive.org/web/20170922101344/http://www.nydailynews.com/news/world/ibm-watson-proper-diagnosis-doctors-stumped-article-1.2741857|archivedate=22 September 2017}}</ref>

=== Industria auto ===
Progresele din IA au contribuit la creșterea industriei de automobile prin crearea și evoluția autovehiculelor cu autovehicule. În 2016, existau peste 30 de companii care utilizau IA la crearea [[Driverless cars|mașinilor fără șofer]]. Câteva companii implicate în IA sunt [[Tesla, Inc.|Tesla]], [[Google]] și [[Apple Inc.|Apple]].<ref> "33 Corporații care lucrează pe autovehicule autonome". Statistici CB. Np, 11 august 2016. 12 noiembrie 2016. </ref>

Multe componente contribuie la funcționarea autoturismelor. Aceste vehicule incorporează sisteme cum ar fi frânarea, schimbarea benzii de rulare, prevenirea coliziunilor, navigarea și cartografierea. Împreună, aceste sisteme, precum și computerele de înaltă performanță, sunt integrate într-un singur vehicul complex.<ref> West, Darrell M. "Mergând înainte: autovehicule cu autovehicule în China, Europa, Japonia, Coreea și Statele Unite". Centrul de Inovare în Tehnologie de la Brookings. Np, septembrie 2016. 12 noiembrie 2016. </ref>

Evoluțiile recente în domeniul autovehiculelor autonome au făcut posibilă inovația autoturismelor conduse automat, deși acestea se află încă în faza de testare. Guvernul britanic a adoptat legislație pentru începerea testării unor mici flote de autoturisme fără șofer în 2018.<ref>{{Citat revistă|nume=Burgess|prenume=Matt|dată=2017-08-24|titlu=The UK is about to Start Testing Self-Driving Truck Platoons|urlarhivă=https://web.archive.org/web/20170922055917/http://www.wired.co.uk/article/uk-trial-self-driving-trucks-platoons-roads|url=https://www.wired.co.uk/article/uk-trial-self-driving-trucks-platoons-roads|journal=Wired UK|access-date=20 September 2017|archive-date=22 September 2017}}</ref> Plutoanele de camioane automate sunt o flotă de autocamioane care conduc în urma unui camion condus de un om, deci plutonul de camioane nu este în întregime autonom. Între timp, Daimler, o companie germană de automobile, testează Freightliner Inspiration, o mașină semi-autonomă de fi folosit numai pe șosele interurbane.<ref>{{Citat revistă|nume=Davies|prenume=Alex|dată=2015-05-05|titlu=World's First Self-Driving Semi-Truck Hits the Road|urlarhivă=https://web.archive.org/web/20171028222802/https://www.wired.com/2015/05/worlds-first-self-driving-semi-truck-hits-road/|url=https://www.wired.com/2015/05/worlds-first-self-driving-semi-truck-hits-road/|journal=WIRED|access-date=20 September 2017|archive-date=28 October 2017}}</ref>

Un factor principal care influențează abilitatea unui automobil de a funcționa fără conducător auto este cartografierea. În general, vehiculul ar putea fi pre-programat cu o hartă a zonei prin care conduce. Această hartă ar include date privind aproximarea luminii stradale și a înălțimii bordurilor pentru ca vehiculul să fie conștient de împrejurimile sale. Cu toate acestea, Google a lucrat la un algoritm al cărui scop este de a elimina nevoia de hărți preprogramate și a creat, în schimb, un dispozitiv care să se poată adapta la o varietate de împrejurimi noi.<ref> McFarland, Matt. "Descoperirea inteligenței artificiale a Google poate avea un impact imens asupra autovehiculelor și mult mai mult". ''Washington Post,'' 25 februarie 2015. Chioșc Infotrac. 24 octombrie 2016 </ref> Unele autovehicule automate nu sunt echipate cu volane sau pedale de frână, așa că s-au concentrat pe cercetări asupra creării unui algoritm capabil să mențină un mediu sigur pentru pasagerii vehiculului prin conștientizarea condițiilor de condus și de viteză.<ref> "Programarea siguranței în autoturisme". Fundația Națională de Științe. Np, 2 februarie 2015. 24 octombrie 2016. </ref>

Un alt factor care influențează capacitatea unui automobil fără șofer este siguranța pasagerului. Pentru a face un automobil fără șofer, inginerii trebuie să-l programeze pentru a gestiona situațiile cu risc ridicat. Aceste situații ar putea include o ciocnire frontală cu pietoni. Scopul principal al mașinii trebuie să fie acela de a lua o decizie care să evite lovirea pietonilor și salvarea pasagerilor în mașină. Dar există o posibilitate ca mașina să aibă nevoie de o decizie care ar pune pe cineva în pericol. Cu alte cuvinte, mașina ar trebui să decidă să salveze pietonii sau pasagerii.<ref> ArXiv, ET (26 octombrie 2015). De ce autovehiculele cu autovehicule trebuie programate să ucidă. Adus 17 noiembrie 2017, de la https://www.technologyreview.com/s/542626/why-self-driving-cars-must-be-programmed-to-kill/ </ref> Programarea mașinii în aceste situații este esențială pentru un automobil fără conducător auto.

=== Finanțe și economie ===
[[Financial institution|Instituțiile financiare]] folosesc de mult timp sistemele de [[Artificial neural network|rețele neurale artificiale]] pentru a detecta debite sau cereri de debitare extraordinare, marcându-le pentru a fi cercetate de oameni. Utilizarea IA în [[Bancă (instituție financiară)|sectorul bancar]] datează din 1987, când [[Security Pacific National Bank]] din SUA a înființat un Task force pentru Prevenirea Fraudelor cu scopul de a contracara utilizarea neautorizată a cardurilor de debit. Programe precum Kasisto și Moneystream utilizează IA în serviciile financiare.

Băncile utilizează astăzi sisteme cu inteligență artificială pentru a organiza operațiuni, a menține evidența contabilă, a investi în acțiuni și a gestiona proprietățile. IA poate reacționa la schimbări bruște și în timpul nopții sau în zilele nelucrătoare.<ref name="Eleanor">{{Citat web|url=https://www.icas.com/ca-today-news/how-accountancy-and-finance-are-using-artificial-intelligence|nume=O'Neill|accessdate=18 November 2016|date=31 July 2016|archiveurl=https://web.archive.org/web/20161118165901/https://www.icas.com/ca-today-news/how-accountancy-and-finance-are-using-artificial-intelligence|first1=Eleanor|lucrare=www.icas.com|limbă=English|archivedate=18 November 2016|titlu=Accounting, automation and AI}}</ref> În august 2001, roboții au învins oamenii într-o competiție simulată de [[Stock trader|tranzacționare financiară]].<ref>[http://news.bbc.co.uk/2/hi/business/1481339.stm Robots Beat Humans in Trading Battle.] {{Webarchive}} BBC.com (8 August 2001)</ref> IA a redus și frauda și criminalitatea financiară prin monitorizarea [[Behavioral pattern|modelelor comportamentale]] ale utilizatorilor pentru orice schimbări anormale sau anomalii.<ref name="fsroundtable.org">{{Citat știre|title=CTO Corner: Artificial Intelligence Use in Financial Services – Financial Services Roundtable|url=http://fsroundtable.org/cto-corner-artificial-intelligence-use-in-financial-services/|data=2 April 2015|accessdate=18 November 2016|language=en-US|journal=Financial Services Roundtable|archiveurl=https://web.archive.org/web/20161118165842/http://fsroundtable.org/cto-corner-artificial-intelligence-use-in-financial-services/|archivedate=18 November 2016}}</ref>

Utilizarea mașinilor cu IA pe piață în aplicații precum comerțul online și luarea deciziilor a schimbat teoriile economice majore.<ref>{{Citat carte|nume=Marwala|prenume=Tshilidzi|nume2=Hurwitz|prenume2=Evan|titlu=Artificial Intelligence and Economic Theory: Skynet in the Market|an=2017|editură=[[Springer Science+Business Media|Springer]]|locul-publicării=London|isbn=978-3-319-66104-9}}</ref> De exemplu, platformele de cumpărare și vânzare bazate pe IA au schimbat legea [[Cerere și ofertă|cererii și ofertei]] prin faptul că acum este posibilă estimarea cu ușurință a unor curbe individualizate de cerere și ofertă și, prin urmare, stabilirea prețurilor individualizate. În plus, mașinile cu IA reduc [[Information asymmetry|asimetria informației]] pe piață, făcând astfel piețele mai eficiente, și reducând volumul tranzacțiilor. Printre alte teorii în care IA a avut impact se numără [[Teoria alegerii raționale|alegerea rațională]], [[Rational expectations|așteptările raționale]], [[Teoria jocurilor|teoria jocurilor]], [[Lewis turning point|punctul de cotitură Lewis]], [[Portfolio optimization|optimizarea portofoliului]] și [[Counterfactual thinking|gândirea contrafactuală]].

=== Jocuri video ===
În jocurile video, inteligența artificială este utilizată în mod obișnuit pentru a genera un comportament dinamic la [[Non-player character|personajele nejucător]] (NPC). În plus, tehnici IA bine cunoscute sunt utilizate în mod curent pentru [[Pathfinding|găsirea de drumuri]]. Unii cercetători consideră că NPC cu IA în jocuri sunt o „problemă rezolvată” pentru majoritatea cazurilor din producție. Printre jocurile cu IA mai atipice se numără directorul IA din ''[[Left 4 Dead]]'' (2008) și antrenamentul neuroevoluționar al plutoanelor în ''[[Supreme Commander 2]]'' (2010).<ref>{{Citat știre|title=Why AI researchers like video games|url=https://www.economist.com/news/science-and-technology/21721890-games-help-them-understand-reality-why-ai-researchers-video-games|archiveurl=https://web.archive.org/web/20171005051028/https://www.economist.com/news/science-and-technology/21721890-games-help-them-understand-reality-why-ai-researchers-video-games|archivedate=5 October 2017}}</ref><ref> Yannakakis, GN (2012, mai). Jocul AI revizuit. În Proceedings of the 9th Conference on Computing Frontiers (pp. 285-292). ACM. </ref>

=== Armată ===
Cheltuielile militare mondiale anuale pe robotică au crescut de la 5,1 miliarde de dolari în 2010 la 7,5 miliarde de dolari în 2015.<ref>{{Citat știre|title=Getting to grips with military robotics|url=https://www.economist.com/news/special-report/21735478-autonomous-robots-and-swarms-will-change-nature-warfare-getting-grips|data=25 January 2018|accessdate=7 February 2018|language=en|journal=The Economist}}</ref><ref>{{Citat web|url=https://www.siemens.com/innovation/en/home/pictures-of-the-future/digitalization-and-software/autonomous-systems-infographic.html|accessdate=7 February 2018|lucrare=www.siemens.com|limbă=en|titlu=Autonomous Systems: Infographic}}</ref> Dronele militare capabile de acțiune autonomă sunt considerate pe scară largă o dotare utilă. Mulți cercetători în domeniul inteligenței artificiale încearcă să se distanțeze de aplicațiile militare ale AI. <ref>{{Citat știre|title=Pentagon Wants Silicon Valley's Help on A.I.|url=https://www.nytimes.com/2018/03/15/technology/military-artificial-intelligence.html|prenume=Cade|nume=Metz|data=15 March 2018|accessdate=19 March 2018|journal=The New York Times}}</ref>

=== Audit ===
Pentru auditul contabilității financiare, IA face posibil auditul continuu. Instrumentele cu IA pot analiza pe loc multe seturi de informații diferite. Beneficiul potențial este reducerea riscului general de audit, creșterea nivelului de asigurare și reducerea duratei auditului.<ref>{{Citat revistă|nume=Chang|nume2=Kao|nume3=Mashruwala|nume4=Sorensen|prenume=Hsihui|prenume2=Yi-Ching|prenume3=Raj|prenume4=Susan M.|dată=10 April 2017|titlu=Technical Inefficiency, Allocative Inefficiency, and Audit Pricing|journal=Journal of Accounting, Auditing & Finance|volum=33|număr=4|pagini=580–600|doi=10.1177/0148558X17696760}}</ref>

=== Publicitate ===
Se poate utiliza IA pentru a anticipa sau generaliza comportamentul clienților din [[Digital footprints|amprenta lor digitală]], pentru a-i viza cu ajutorul unor promoții personalizate sau pentru a construi în mod automat profiluri de client.<ref name="Matz et al 2017"> Matz, SC și colab. "Direcționarea psihologică ca o abordare eficientă a persuasiunii digitale în masă". Lucrări ale Academiei Naționale de Științe (2017): 201710966. </ref> Un caz documentat arată că companiile de jocuri de noroc online folosesc IA pentru a îmbunătăți direcționarea reclamelor către clienți.<ref>{{Citat web|url=https://www.theguardian.com/technology/2018/apr/30/bookies-using-ai-to-keep-gamblers-hooked-insiders-say|nume=Busby|date=30 April 2018|first1=Mattha|lucrare=the Guardian|limbă=en|titlu=Revealed: how bookies use AI to keep gamblers hooked}}</ref>

Mai mult, aplicarea modelelor de IA de [[Personality computing|calcul al personalității]] poate contribui la reducerea costurilor campaniilor publicitare prin adăugarea de direcționare psihologică la direcționarea , sociodemografică sau comportamentală.<ref name="Celli et al. 2017"> Celli, Fabio, Pietro Zani Massani și Bruno Lepri. Profilio: Profilul psihometric pentru a stimula publicitatea în mass-media socială. " Procesele din 2017 ACM pe Conferința Multimedia. ACM, 2017 [https://www.researchgate.net/publication/320542489_Profilio_Psychometric_Profiling_to_Boost_Social_Media_Advertising] </ref>

=== Artă ===
Inteligența artificială a inspirat numeroase aplicații creative, inclusiv utilizarea sa pentru a produce arte vizuale. Expoziția „Mașini gânditoare: artă și design în era calculatoarelor, 1959-1989” de la MoMA<ref name="moma"> https://www.moma.org/calendar/exhibitions/3863 Adus la 29 iulie 2018 </ref> oferă o imagine de ansamblu asupra aplicațiilor istorice ale IA în artă, arhitectură și design. Printre expozițiile recente care prezintă utilizarea de IA pentru a produce artă se numără acțiunile și licitațiile de binefacere sponsorizate de Google de la Fundația Grey Area din San Francisco, unde artiștii au experimentat cu algoritmul deepdream, <ref name="wp1"> https://www.washingtonpost.com/news/innovations/wp/2016/03/10/googles-psychedelic-paint-brush-raises-the-oldest-question-in-art/ Recuperat 29 iulie </ref> și expoziția „Unhuman: Art in Age of AI”, care a avut loc în Los Angeles și Frankfurt, în toamna anului 2017.<ref name="sf">{{Citat web|url=https://www.statefestival.org/program/2017/unhuman-art-in-the-age-of-ai|accessdate=2018-09-13|publisher=Statefestival.org|date=|titlu=Unhuman: Art in the Age of AI – State Festival}}</ref><ref name="artsy"> https://www.artsy.net/article/artsy-editorial-hard-painting-made-computer-human . Adus pe 29 iulie </ref> În primăvara anului 2018, Association for Computing Machinery a dedicat un număr special al revistei sale subiectului computerelor și artei, evidențiind rolul învățării automate în artă.<ref name="acm"> https://dl.acm.org/citation.cfm?id=3204480.3186697 Adus la 29 iulie </ref>

== Filosofie și etică ==
Există trei întrebări filosofice legate de IA:

# Este posibilă [[Artificial general intelligence|inteligența artificială generală]]? Poate o mașină să rezolve orice problemă pe care o ființă umană o poate rezolva folosind inteligența? Sau există limite dure pentru ceea ce poate realiza o mașină?
# Sunt mașinile inteligente periculoase? Cum putem să ne asigurăm că mașinile se comportă etic și că sunt utilizate în mod etic?
# Poate o mașină să aibă [[minte]], [[Conștiență|conștiință]] și [[Filozofia minții|stări mentale]] la fel cum au oamenii? Poate o mașină să fie [[Sentience|conștientă de sine]] și, prin urmare, să merite anumite drepturi? Poate o mașină să provoace rău [[Intention|intenționat]]?

=== Limitele inteligenței generale artificiale ===
Poate o mașină să fie inteligentă? Poate „gândi”?

; ''[[Computing Machinery and Intelligence|Convenția „politicoasă” a lui Alan Turing,]]''
: Nu trebuie să decidem dacă o mașină poate „gândi”; trebuie doar să decidem dacă o mașină poate funcționa inteligent ca o ființă umană. Această abordare a problemelor filosofice asociate cu inteligența artificială formează baza [[Testul Turing|testului Turing]].<ref name="Turing test"> Testul [[Turing test|Turing]] : <br /><br /> Publicația inițială a lui Turing: </ref>

; ''[[Dartmouth Workshop|Propunerea de la Dartmouth]]''
: „Fiecare aspect al învățării sau orice altă caracteristică a inteligenței poate fi atât de precis descris încât poate fi făcută o mașină pentru a-l simula”. Această presupunere a fost tipărită în propunerea pentru Conferința de la Dartmouth din 1956 și reprezintă poziția celor mai mulți cercetători din IA.<ref name="Dartmouth proposal"> Propunerea de la Dartmouth: </ref>

; ''[[Physical symbol system|Ipoteza sistemului de simboluri fizice a lui Newell și Simon]]''
: „Un sistem de simboluri fizice are mijloacele necesare și suficiente pentru acțiune inteligentă generală”. Newell și Simon susțin că inteligența constă în operațiuni formale pe simboluri. <ref name="Physical symbol system hypothesis"> Ipoteza [[Physical symbol system|sistemelor simbolice fizice]] : </ref> [[Hubert Dreyfus]] argumenta că, dimpotrivă, expertiza umană depinde mai degrabă de instinctul inconștient decât de manipularea simbolică a conștientului și pe un „simț” al situației, mai degrabă decât o cunoaștere simbolică explicită.<ref>
Dreyfus criticized the [[Necessary and sufficient|necessary]] condition of the [[physical symbol system]] hypothesis, which he called the "psychological assumption": "The mind can be viewed as a device operating on bits of information according to formal rules." {{Harvard citation|Dreyfus|1992|p=156}}</ref> <ref name="Dreyfus' critique"> [[Dreyfus' critique of artificial intelligence|Dreptul lui Dreyfus asupra inteligenței artificiale]] : </ref>

; ''Argumentele Gödeliene''
: [[Kurt Gödel|Gödel]] însuși,<ref name="Gödel himself"> [[Artificial intelligence#CITEREFGödel1951|Gödel 1951]] : în această prelegere, [[Kurt Gödel]] folosește teorema incompletenței pentru a ajunge la următoarea disjuncție: (a) mintea umană nu este o mașină finită consistentă, sau (b) există [[Diophantine equations|ecuații Diophantine]] pentru care nu poate decide dacă există soluții. Gödel găsește (b) implauzibil și, astfel, pare să fi crezut că mintea umană nu este echivalentă cu o mașină finită, adică puterea sa depășește puterea oricărei mașini finite. El a recunoscut că aceasta a fost doar o presupunere, deoarece nu s-ar putea denunța niciodată (b). Cu toate acestea, el a considerat concluzia disjunctivă ca fiind un "fapt sigur". </ref> John Lucas (în 1961) și [[Roger Penrose]] (într-un argument mai detaliat începând cu 1989) au susținut cu argumente extrem de tehnice că matematicienii umani pot vedea constant adevărul propriilor lor „afirmații Gödel” și, prin urmare, că au abilități de calcul dincolo de mașinile Turing mecanice.<ref name="The mathematical objection"> Obiecția matematică: </ref> Cu toate acestea, consensul modern în comunitatea științifică și matematică este că aceste „argumente Gödeliene” nu sunt valide.<ref>{{Citat web|url=http://plato.stanford.edu/entries/goedel-incompleteness/#GdeArgAgaMec|nume=[[Graham Oppy]]|accessdate=27 April 2016|date=20 January 2015|lucrare=[[Stanford Encyclopedia of Philosophy]]|quote=These Gödelian anti-mechanist arguments are, however, problematic, and there is wide consensus that they fail.|titlu=Gödel's Incompleteness Theorems}}</ref><ref>{{Citat carte|nume=[[Stuart J. Russell]]|nume2=[[Peter Norvig]]|titlu=Artificial Intelligence: A Modern Approach|dată=2010|editură=[[Prentice Hall]]|locul-publicării=Upper Saddle River, NJ|isbn=978-0-13-604259-4|ediție=3rd|capitol=26.1.2: Philosophical Foundations/Weak AI: Can Machines Act Intelligently?/The mathematical objection|citat=even if we grant that computers have limitations on what they can prove, there is no evidence that humans are immune from those limitations.}}</ref><ref> Mark Colyvan. O introducere în filosofia matematicii. [[Cambridge University Press]] , 2012. Din 2.2.2, "semnificația filosofică a rezultatelor incompletenței lui Gödel": "Înțelepciunea acceptată (cu care concur) este că argumentele Lucas-Penrose nu reușesc". </ref>

; ''Argumentul [[Artificial brain|creierului artificial]]''
: Creierul poate fi simulat de mașini și, deoarece creierul este inteligent, creierul simulat trebuie să fie și el inteligent; astfel mașinile pot fi inteligente. [[Hans Moravec]], [[Ray Kurzweil]] și alții au susținut că este posibil din punct de vedere tehnologic să se copieze creierul direct în hardware și software, și ca o astfel de simulare să fie în esență identică cu originalul.<ref name="Brain simulation"> Argumentele [[Artificial brain|creierului artificial]] : AI necesită o simulare a funcționării creierului uman </ref>

; ''[[AI effect|Efectul AI]]''
: Mașinile sunt ''deja'' inteligente, dar observatorii nu își dau seama. Când [[Deep Blue]] l-a învins pe [[Gari Kasparov|Garry Kasparov]] la șah, mașina se purta inteligent. Cu toate acestea, privitorii neagă de obicei comportamentul unui program cu inteligență artificială, argumentând că nu este în definitiv inteligență „reală”; astfel, inteligența „reală” este orice comportament inteligent pe care oamenii îl pot avea, dar mașinile încă nu. Acesta este cunoscut sub numele de efectul IA: „IA este ceea ce nu s-a făcut încă”.

=== Probleme potențiale ===
Utilizarea pe scară largă a inteligenței artificiale ar putea avea [[Unintended consequences|consecințe neintenționate]] care pot fi periculoase sau nedorite. Oamenii de știință de la [[Future of Life Institute|Institutul pentru Viitorul Vieții]] au descris, printre altele, câteva obiective de cercetare pe termen scurt pentru a vedea cum IA influențează economia, legile și etica implicate în IA și cum să minimizeze riscurile de securitate aduse de IA. Pe termen lung, oamenii de știință au propus să se continue să se optimizeze funcțiilor, reducând în același timp riscurile posibile de securitate care vin împreună cu noile tehnologii.<ref> Russel, Stuart, Daniel Dewey și Max Tegmark. Priorități de cercetare pentru o inteligență artificială robustă și benefică. AI Magazine 36: 4 (2015). 8 decembrie 2016. </ref>

==== Risc existențial ====
Fizicianul [[Stephen Hawking]], fondatorul [[Microsoft]] [[Bill Gates]], și fondatorul [[SpaceX]] [[Elon Musk]] și-au exprimat îngrijorarea cu privire la posibilitatea ca IA să poată evolua până la punctul în care oamenii nu ar putea să o mai controleze, iar Hawking a teoretizat că acest lucru ar putea „[[Global catastrophic risk|însemna sfârșitul rasei umane]]”.<ref>{{Citat știre|title=Microsoft's Bill Gates insists AI is a threat|url=https://www.bbc.co.uk/news/31047780|prenume=Kevin|nume=Rawlinson|data=2015-01-29|accessdate=30 January 2015|publisher=BBC News|archiveurl=https://web.archive.org/web/20150129183607/http://www.bbc.co.uk/news/31047780|archivedate=29 January 2015}}</ref><ref name="Holley">{{Citat știre|title=Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'|url=https://www.washingtonpost.com/news/the-switch/wp/2015/01/28/bill-gates-on-dangers-of-artificial-intelligence-dont-understand-why-some-people-are-not-concerned/|prenume=Peter|nume=Holley|data=28 January 2015|accessdate=30 October 2015|issn=0190-8286|journal=The Washington Post|archiveurl=https://web.archive.org/web/20151030054330/https://www.washingtonpost.com/news/the-switch/wp/2015/01/28/bill-gates-on-dangers-of-artificial-intelligence-dont-understand-why-some-people-are-not-concerned/|archivedate=30 October 2015}}</ref><ref>{{Citat știre|title=Elon Musk: artificial intelligence is our biggest existential threat|url=https://www.theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat|prenume=Samuel|nume=Gibbs|data=2014-10-27|accessdate=30 October 2015|journal=The Guardian|archiveurl=https://web.archive.org/web/20151030054330/http://www.theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat|archivedate=30 October 2015}}</ref> {{quote|text=The development of full artificial intelligence could spell the end of the human race. Once humans develop artificial intelligence, it will take off on its own and redesign itself at an ever-increasing rate. Humans, who are limited by slow biological evolution, couldn't compete and would be superseded.|author=[[Stephen Hawking]]<ref>{{Cite news|title = Stephen Hawking warns artificial intelligence could end mankind|url = https://www.bbc.com/news/technology-30290540|accessdate = 30 October 2015|deadurl = no|archiveurl = https://web.archive.org/web/20151030054329/http://www.bbc.com/news/technology-30290540|archivedate = 30 October 2015|df = dmy-all|work = [[BBC News]]|date = 2014-12-02|last1 = Cellan-Jones|first1 = Rory}}</ref>}} În cartea sa ''[[Superintelligence: Paths, Dangers, Strategies|Superintelligence]]'', [[Nick Bostrom]] oferă un argument că inteligența artificială va constitui o amenințare pentru omenire. El susține că, dacă alege acțiuni bazate pe atingerea unui anumit scoo ,o IA suficient de inteligentă,va prezenta un comportament [[Instrumental convergence|convergent]], respectiv vc acumularesurse și se va proteja de la oprire. Dacă scopuri IA nu reflectă cele ale umanității{{Mdash}} de exemplu, o IA căreia i se cere să calculeze cât mai multe cifre din pi posibil{{Mdash}} ar putea face rău umanității pentru a obține mai multe resurse sau pentru a preveni închiderea sa, doar pentru a-și atinge mai bine scopul.

Preocuparea față de riscul produs de inteligența artificială a dus la unele donații și investiții foarte cunoscute. Un grup de titani tehnologici proeminenți, printre care [[Peter Thiel]], Amazon Web Services și Musk, au angajat 1 miliard de dolari pentru [[OpenAI]], o companie nonprofit care vizează promovarea dezvoltării responsabile a IA.<ref>{{Citat web|url=http://www.chicagotribune.com/bluesky/technology/ct-tech-titans-against-terminators-20151214-story.html|nume=Post|publisher=|archiveurl=https://web.archive.org/web/20160607121118/http://www.chicagotribune.com/bluesky/technology/ct-tech-titans-against-terminators-20151214-story.html|first1=Washington|archivedate=7 June 2016|titlu=Tech titans like Elon Musk are spending $1 billion to save you from terminators}}</ref> Opinia experților din domeniul inteligenței artificiale este diversă, existând fracțiuni considerabile care nu sunt îngrijorate, dar și altele care sunt, de riscul unei IA capabile de supra-umanitate.<ref>{{Citat revistă|nume=Müller|nume2=Bostrom|prenume=Vincent C.|prenume2=Nick|an=2014|titlu=Future Progress in Artificial Intelligence: A Poll Among Experts|urlarhivă=https://web.archive.org/web/20160115114604/http://www.sophia.de/pdf/2014_PT-AI_polls.pdf|url=http://www.sophia.de/pdf/2014_PT-AI_polls.pdf|journal=AI Matters|volum=1|număr=1|pagini=9–11|doi=10.1145/2639475.2639478|archive-date=15 January 2016}}</ref> În ianuarie 2015, [[Elon Musk]] a donat zece milioane de dolari [[Future of Life Institute|Institutului „Viitorul Vieții”]] pentru a finanța cercetarea privind înțelegerea procesului de decizie în IA. Scopul institutului este „să crească înțelepciunea cu care gestionăm" puterea tot mai mare a tehnologiei. Musk finanțează și companiile care dezvoltă inteligență artificială, cum ar fi [[Google DeepMind]] și [[Vicarious (company)|Vicarious]], doar pentru „a urmări ce se întâmplă cu inteligența artificială”.<ref>{{Citat web|url=http://www.techinsider.io/mysterious-artificial-intelligence-company-elon-musk-investment-2015-10|accessdate=30 October 2015|archiveurl=https://web.archive.org/web/20151030165333/http://www.techinsider.io/mysterious-artificial-intelligence-company-elon-musk-investment-2015-10|lucrare=Tech Insider|archivedate=30 October 2015|titlu=The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers}}</ref> El crede că „există un rezultat potențial periculos.”<ref>{{Citat web|url=https://www.bloomberg.com/news/articles/2015-07-01/musk-backed-group-probes-risks-behind-artificial-intelligence|nume=Clark|accessdate=30 October 2015|archiveurl=https://web.archive.org/web/20151030202356/http://www.bloomberg.com/news/articles/2015-07-01/musk-backed-group-probes-risks-behind-artificial-intelligence|first1=Jack|lucrare=Bloomberg.com|archivedate=30 October 2015|titlu=Musk-Backed Group Probes Risks Behind Artificial Intelligence}}</ref><ref>{{Citat web|url=http://www.fastcompany.com/3041007/fast-feed/elon-musk-is-donating-10m-of-his-own-money-to-artificial-intelligence-research|accessdate=30 October 2015|date=2015-01-15|archiveurl=https://web.archive.org/web/20151030202356/http://www.fastcompany.com/3041007/fast-feed/elon-musk-is-donating-10m-of-his-own-money-to-artificial-intelligence-research|lucrare=Fast Company|archivedate=30 October 2015|titlu=Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research}}</ref>

Pentru ca acest pericol să fie realizat, un IA ipotetic ar trebui să capete putere și inteligență superioară întregii umanități, posibilitate suficient de îndepărtată în viitor ca să nu merite cercetată.<ref>{{Citat web|url=http://thebulletin.org/artificial-intelligence-really-existential-threat-humanity8577|accessdate=30 October 2015|date=2015-08-09|archiveurl=https://web.archive.org/web/20151030054330/http://thebulletin.org/artificial-intelligence-really-existential-threat-humanity8577|lucrare=Bulletin of the Atomic Scientists|archivedate=30 October 2015|titlu=Is artificial intelligence really an existential threat to humanity?}}</ref><ref>{{Citat web|url=http://fusion.net/story/54583/the-case-against-killer-robots-from-a-guy-actually-building-ai/|accessdate=31 January 2016|archiveurl=https://web.archive.org/web/20160204175716/http://fusion.net/story/54583/the-case-against-killer-robots-from-a-guy-actually-building-ai/|lucrare=Fusion.net|archivedate=4 February 2016|titlu=The case against killer robots, from a guy actually working on artificial intelligence}}</ref> Alte contraargumente se învârt în jurul ideii că oamenii sunt, fie intrinsec, fie convergent, valoroși din perspectiva unei inteligențe artificiale.<ref>{{Citat web|url=https://www.vox.com/2014/8/22/6043635/5-reasons-we-shouldnt-worry-about-super-intelligent-computers-taking|accessdate=30 October 2015|date=2014-08-22|archiveurl=https://web.archive.org/web/20151030092203/http://www.vox.com/2014/8/22/6043635/5-reasons-we-shouldnt-worry-about-super-intelligent-computers-taking|lucrare=Vox|archivedate=30 October 2015|titlu=Will artificial intelligence destroy humanity? Here are 5 reasons not to worry.}}</ref>

==== Devalorizarea umanității ====
[[Joseph Weizenbaum]] scria că aplicațiile IA nu pot, prin definiție, să simuleze cu adevărat empatia umană reală și că utilizarea tehnologiei IA în domenii precum [[Customer service|serviciul pentru clienți]] sau [[Psihoterapie|psihoterapia]]<ref>In the early 1970s, [[Kenneth Colby]] presented a version of Weizenbaum's [[ELIZA]] known as DOCTOR which he promoted as a serious therapeutic tool. {{Harvard citation|Crevier|1993|pp=132–144}}</ref> este profund greșită. Weizenbaum a fost deranjat și de faptul că cercetătorii IA (și unii filozofi) erau dispuși să vadă mintea umană ca pe un program de calculator (o poziție cunoscută acum sub numele de [[Computationalism|computaționalism]]). Pentru Weizenbaum aceste idei sugerează că cercetarea IA ar devaloriza viața umană.<ref name="Weizenbaum's critique"> [[Joseph Weizenbaum]] critică AI: </ref>

==== Dreptate socială ====
O preocupare este că programele IA pot fi programate pentru a fi părtinitoare împotriva anumitor grupuri, cum ar fi femeile și minoritățile, deoarece majoritatea dezvoltatorilor sunt bărbați albi bogați.<ref> https://www.channelnewsasia.com/news/commentary/artificial-intelligence-big-data-bias-hiring-loans-key-challenge-11097374 </ref> Sprijinul pentru inteligența artificială este mai mare în rândul bărbaților (cu aprobarea de 47%) decât femeile (35%).

==== Scăderea cererii pentru munca umană ====
Relația dintre automatizare și ocuparea forței de muncă este complicată. În timp ce automatizarea elimină locurile de muncă vechi, ea și creează noi locuri de muncă prin efectele microeconomice și macroeconomice.<ref> E McGaughey, "Robotii vă vor automatiza locul de muncă? Ocuparea integrală, venitul de bază și democrația economică "(2018) [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3044448 SSRN, partea 2 (3)] </ref> Spre deosebire de valurile anterioare de automatizare, multe locuri de muncă ale clasei mijlocii pot fi eliminate prin inteligența artificială; ''[[The Economist]]'' afirmă că „îngrijorarea pe care IA ar putea să o facă în cazul muncii calificate ceea ce a făcut mașina cu aburi celei manuale în timpul Revoluției Industriale” merită luat în serios.<ref>{{Citat știre|title=Automation and anxiety|url=https://www.economist.com/news/special-report/21700758-will-smarter-machines-cause-mass-unemployment-automation-and-anxiety|data=9 May 2015|accessdate=13 January 2018|journal=The Economist}}</ref> Estimările subiective ale riscului variază foarte mult; de exemplu, Michael Osborne și [[Carl Benedikt Frey]] estimează că 47% din locurile de muncă din SUA sunt „cu risc ridicat” de automatizare potențială, în timp ce raportul OCDE clasifică doar 9% din locurile de muncă din SUA cu „risc ridicat”.<ref>{{Citat știre|title=Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says|url=https://www.nytimes.com/2017/01/12/technology/robots-will-take-jobs-but-not-as-fast-as-some-fear-new-report-says.html|prenume=Steve|nume=Lohr|data=2017|accessdate=13 January 2018|journal=The New York Times}}</ref><ref>{{Citat revistă|nume=Frey|nume2=Osborne|prenume=Carl Benedikt|prenume2=Michael A|dată=1 January 2017|titlu=The future of employment: How susceptible are jobs to computerisation?|journal=Technological Forecasting and Social Change|volum=114|pagini=254–280|issn=0040-1625|doi=10.1016/j.techfore.2016.08.019}}</ref><ref> Arntz, Melanie, Terry Gregory și Ulrich Zierahn. "Riscul de automatizare a locurilor de muncă în țările OCDE: o analiză comparativă". Documentele de lucru socială, ocuparea forței de muncă și migrația din OCDE 189 (2016). p. 33. </ref> Locurile de muncă cu intervalul de risc extrem sunt cele de tipul paralegal sau bucătar de fast-food, în timp ce cererea de locuri de muncă este probabil să crească pentru profesiile legate de servicii directe, de la asistența medicală personală la cler. <ref>{{Citat știre|title=What jobs will still be around in 20 years? Read this to prepare your future|url=https://www.theguardian.com/us-news/2017/jun/26/jobs-future-automation-robots-skills-creative-health|prenume=Arwa|nume=Mahdawi|data=26 June 2017|accessdate=13 January 2018|journal=The Guardian}}</ref> Autorul [[Martin Ford (author)|Martin Ford]] și alții merg mai departe și susțin că un număr mare de locuri de muncă sunt de rutină, repetitive și (pentru o IA) previzibile; Ford avertizează că aceste locuri de muncă ar putea fi automatizate în următoarele decenii și că multe dintre noile locuri de muncă ar putea să nu fie „accesibile persoanelor cu capacități medii”, chiar și prin recalificare. Economiștii subliniază faptul că tehnologia din trecut avea tendința de a crește, și nu de a reduce ocuparea totală a forței de muncă, dar a recunoscut că „suntem pe un teritoriu neexplorat” cu IA.<ref name="guardian jobs debate">{{Citat știre|title=Will robots create more jobs than they destroy?|url=https://www.theguardian.com/technology/2015/sep/06/will-robots-create-destroy-jobs|prenume=Martin|nume=Ford|data=6 September 2015|accessdate=13 January 2018|nume2=Colvin|prenume2=Geoff|journal=The Guardian}}</ref>

==== Arme autonome ====
Actualmente, peste 50 de țări cercetează roboți de luptă, inclusiv Statele Unite, China, Rusia și Regatul Unit. Mulți oameni preocupați de riscul de IA superinteligent doresc, de asemenea, să limiteze utilizarea soldaților și a dronelor artificiale.<ref>{{Citat web|url=http://observer.com/2015/08/stephen-hawking-elon-musk-and-bill-gates-warn-about-artificial-intelligence/|accessdate=30 October 2015|date=2015-08-19|archiveurl=https://web.archive.org/web/20151030053323/http://observer.com/2015/08/stephen-hawking-elon-musk-and-bill-gates-warn-about-artificial-intelligence/|lucrare=Observer|archivedate=30 October 2015|titlu=Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence}}</ref>

=== Mașini etice ===
Mașinile cu inteligență au potențialul de a-și folosi inteligența pentru a preveni daunele și pentru a minimiza riscurile; ele pot avea capacitatea de a folosi [[Etică|raționamentul etic]] pentru a-și alege mai bine acțiunile în lume. Cercetarea în acest domeniu cuprinde [[Machine ethics|etica mașinii]], [[Artificial moral agents|agenții artificiali morali]] și [[Friendly AI|IA prietenoasă]].

==== Agenți artificiali morali ====
Wendell Wallach a introdus conceptul de [[Artificial moral agents|agent artificial moral]] (AMA) în cartea sa ''Morale Machines.''<ref> Wendell Wallach (2010). ''Moral Machines'' , Oxford University Press. </ref> Pentru Wallach, AMA au devenit o parte a peisajului de cercetare al inteligenței artificiale, fiind ghidat de cele două întrebări centrale pe care le identifică drept: „Vrea omenirea ca mașinile să ia decizii morale?”<ref> Wallach, pp. 37-54. </ref> și „pot (ro)boții să fie cu adevărat morali?”.<ref> Wallach, pp. 55-73. </ref> Pentru Wallach, întrebarea nu este centrată pe problema ''dacă'' mașinile pot demonstra echivalența comportamentului moral, ci pe ''constrângerile'' pe care societatea le poate impune asupra dezvoltării AMA.<ref> Wallach, Introducere capitol. </ref>

==== Etica mașinilor ====
Domeniul eticii mașinilor se referă la imprimarea de principii etice mașinilor sau la o procedură de descoperire a unei modalități de rezolvare a dilemelor etice pe care le-ar putea întâmpina, permițându-le să funcționeze într-o manieră etică responsabilă prin propriile decizii etice.<ref name="autogenerated1"> Michael Anderson și Susan Leigh Anderson (2011), Etica mașinilor, Cambridge University Press. </ref> Domeniul a fost descris în Simpozionul AAAI Fall 2005 privind etica mașinilor: „Cercetările anterioare privind relația dintre tehnologie și etică s-au axat în mare parte pe utilizarea responsabilă și iresponsabilă a tehnologiei de către ființele umane, câțiva oameni fiind interesați de modul în care ființele umane tratează mașinile. În toate cazurile, numai ființele umane s-au angajat în raționamentul etic. A sosit timpul să adăugăm o dimensiune etică cel puțin unora din mașini. Recunoașterea ramificațiilor etice ale comportamentului care implică mașini, precum și evoluțiile recente și potențiale ale autonomiei mașinilor necesită acest lucru. Spre deosebire de hackingul calculatoarelor, problemele legate de proprietatea software-ului, problemele de confidențialitate și alte subiecte care sunt în mod normal atribuite eticii calculatoarelor, etica mașinilor se referă la comportamentul mașinilor față de utilizatorii umani și față de alte mașini. Cercetarea în etica mașinilor este esențială pentru atenuarea preocupărilor cu sistemele autonome{{Mdash}} s-ar putea argumenta că noțiunea de mașini autonome fără o asemenea dimensiune este la baza tuturor temerilor legate de inteligența mașinilor. În plus, investigarea eticii mașinilor ar putea permite descoperirea unor probleme cu teoriile etice actuale, îmbunătățindu-ne gândirea despre etică.”<ref name="autogenerated2">{{Citat web|url=http://www.aaai.org/Library/Symposia/Fall/fs05-06|archiveurl=https://web.archive.org/web/20141129044821/http://www.aaai.org/Library/Symposia/Fall/fs05-06|lucrare=aaai.org|archivedate=29 November 2014|titlu=Machine Ethics}}</ref> Etica mecanică este uneori denumită „moralitatea mașinii”, „etică computațională” sau „moralitate computațională”. O varietate de perspective ale acestui domeniu incipient pot fi găsite în ediția colectivă „Machine Ethics”<ref name="autogenerated1" /> care provine din simpozionul AAAI Fall 2005 privind etica mașinilor.<ref name="autogenerated2" />

==== IA rău-voitoare și IA prietenoasă ====
Politologul [[Charles T. Rubin]] consideră că IA nu poate fi nici proiectată, nici garantată a fi binevoitoare.<ref>{{Citat revistă|nume=Rubin|prenume=Charles|legătură-autor=Charles T. Rubin|dată=Spring 2003|titlu=Artificial Intelligence and Human Nature &#124;'The New Atlantis|urlarhivă=https://web.archive.org/web/20120611115223/http://www.thenewatlantis.com/publications/artificial-intelligence-and-human-nature|url=http://www.thenewatlantis.com/publications/artificial-intelligence-and-human-nature|volum=1|pagini=88–100|archive-date=11 June 2012}}</ref> El susține că „orice bunăvoință suficient de avansată poate fi indisolubilă de rea-voință”. Oamenii nu ar trebui să presupună că mașinile sau roboții ne vor trata favorabil, deoarece nu există niciun motiv a ''priori'' de a crede că ar simpatiza cu sistemul nostru de moralitate, care a evoluat odată cu biologia noastră particulară (pe care IA nu ar împărtăși-o). Software-ul inteligent poate să nu decidă neapărat să susțină existența umanității și ar fi extrem de dificil să se oprească. Acest subiect a început de curând să fie discutat în publicațiile academice ca o adevărată sursă de risc pentru civilizație, oameni și planeta Pământ.

O propunere de abordare a acestei situații este aceea de a se asigura că primul IA inteligent în general este „[[Friendly AI|IA prietenos]]” și că va fi capabil să controleze IA dezvoltate ulterior. Unii se întreabă dacă acest tip de control ar putea rămâne funcțional.

Cercetătorul de IA [[Rodney Brooks]] scria: „cred că este o greșeală să ne îngrijorăm că am putea dezvolta IA rău-voitoare oricând în următoarele câteva sute de ani. Cred că îngrijorarea provine dintr-o eroare fundamentală de a nu distinge diferența dintre progresele recente foarte reale într-un anumit aspect al IA pe de o parte, și enormitatea și complexitatea construirii unei inteligențe voluntare conștiente de sine.”<ref>{{Citat web|url=http://www.rethinkrobotics.com/artificial-intelligence-tool-threat/|nume=Brooks|date=10 November 2014|archiveurl=https://web.archive.org/web/20141112130954/http://www.rethinkrobotics.com/artificial-intelligence-tool-threat/|first1=Rodney|archivedate=12 November 2014|titlu=artificial intelligence is a tool, not a threat}}</ref>

=== Conștiința, sentimentul și mintea pentru o mașină ===
Dacă un sistem cu IA replică toate aspectele cheie ale inteligenței umane, va fi și acest sistem [[Sentience|conștient de sine]]{{Mdash}} va avea o [[minte]] care are [[Conștiență|experiențe conștiente]]? Această întrebare este strâns legată de problema filosofică cu privire la natura conștiinței umane, numită în general [[Hard problem of consciousness|problema grea a conștiinței]].

==== Conștiința ====
[[David Chalmers]] a identificat două probleme în înțelegerea minții, pe care le-a numit problemele „grea” și „ușoară” ale conștiinței.<ref name="Chalmers">{{Citat revistă|nume=Chalmers|prenume=David|legătură-autor=David Chalmers|an=1995|titlu=Facing up to the problem of consciousness|url=http://www.imprint.co.uk/chalmers.html|journal=[[Journal of Consciousness Studies]]|volum=2|număr=3|pagini=200–219}} See also [http://consc.net/papers/facing.html this link]
</ref> Problema ușoară este înțelegerea modului în care creierul procesează semnale, face planuri și controlează comportamentul. Problema grea explică cum ''se simte'' sau de ce ar trebui să se simtă. [[Information processing|Prelucrarea informației]] umane este ușor de explicat, însă [[Subjective experience|experiența subiectivă]] umană este dificil de explicat.

De exemplu, să considerăm ceea ce se întâmplă atunci când unei persoane i se arată un specimen de culoare și ea o identifică, spunând că este „roșu”. Problema ușoară necesită doar înțelegerea mecanismelor din creier care fac posibil ca o persoană să știe că specimenul de culoare este roșu. Problema dificilă este că oamenii mai știu și altceva{{Mdash}} ei știu și ''cum arată roșu''. (o persoană născută fără vedere poate să știe că ceva este roșu fără să știe ce arată roșu.) {{efn|Aceasta se bazează pe [[Mary's Room|Camera lui Mary]], un experiment imaginar propus pentru prima oară de [[Frank Cameron Jackson|Frank Jackson]] în 1982}} Toată lumea știe că experiența subiectivă există, deoarece o au în fiecare zi (de exemplu, toți oamenii care pot vedea știu ce este roșu). Problema dificilă explică modul în care creierul îl creează, de ce există, și cum este diferit de cunoștințe și de alte aspecte ale creierului.

==== Computaționalism și funcționalism ====
Computaționalismul este poziția din domeniul [[Filozofia minții|filosofiei minții]] că [[Filozofia minții|mintea]] umană, creierul uman sau ambele sunt sisteme de procesare a informațiilor și că gândirea este o formă de calcul.<ref> [[Steven Horst|Horst, Steven]] , (2005) [http://plato.stanford.edu/entries/computational-mind/ "Teoria computațională a minții"] în ''Enciclopedia de filosofie Stanford'' </ref> Computaționalismul susține că relația dintre minte și corp este similară sau identică cu relația dintre software și hardware și, astfel, poate fi o soluție la problema [[Mind-body problem|minții și corpului]]. Această poziție filosofică a fost inspirată de activitatea cercetătorilor din IA și a specialiștilor în științele cognitive din anii 1960 și a fost inițial propusă de filozofii [[Jerry Fodor]] și [[Hilary Putnam]].

==== Ipoteza IA puternice ====
Poziția filosofică pe care [[John R. Searle|John Searle]] a numit-o [[Strong AI hypothesis|„IA puternică”]] afirmă: „calculatorul programat corespunzător, cu intrările și ieșirile corecte ar avea astfel o minte în același sens cu care oamenii au minți”.<ref name="Searle's strong AI"> Această versiune este de la [[Artificial intelligence#CITEREFSearle1999|Searle (1999)]] și este citată și în [[Artificial intelligence#CITEREFDennett1991|Dennett 1991]] , p. &nbsp; 435. Formula originală a lui Searle a fost: "Calculatorul programat în mod adecvat este cu adevărat o minte, în sensul că calculatoarele care au dat programele potrivite pot fi literalmente spuse că înțeleg și au alte stări cognitive". ( [[Artificial intelligence#CITEREFSearle1980|Searle 1980]] , p. &nbsp; 1). AI puternică este definită în mod similar de [[Artificial intelligence#CITEREFRussellNorvig2003|Russell &#x26; Norvig (2003]] , p. &nbsp; 947): "Afirmația că mașinile ar putea să acționeze inteligent (sau, poate, mai bine, ar acționa ca și cum ar fi inteligente) se numește ipoteza" slaba AI "a filozofilor și afirmația că mașinile care o fac așa gândesc (spre deosebire de pentru a simula gândirea) se numește ipoteza "puternică AI". " </ref> Searle contrazice această afirmație cu argumentul [[Chinese room|camerei chinezești]], care ne cere să privim ''în interiorul'' calculatorului și să încercăm să găsim unde ar putea fi „mintea”.<ref name="Chinese room"> Argumentul [[Chinese room|camerei chineze a]] lui Searle: </ref>

==== Drepturile roboților ====
Dacă o mașină poate fi creată cu inteligență, ar putea ''[[Sentience|simți]]''? Dacă poate simți, are aceleași drepturi ca și omul? Această problemă, cunoscută acum ca „[[Etica privind inteligența artificială|drepturile roboților]]”, este în prezent analizată de către [[Institute for the Future|Institutul pentru Viitor]] din California, deși mulți critici consideră că discuția este prematură.<ref name="Robot rights"> [[Robot rights|Drepturile robotului]] : </ref> Unii critici ai [[Transumanism|transumanismului]] susțin că orice drepturi ipotetice ale robotului ar rezida pe un spectru, cu [[Drepturile animalelor|drepturile animalelor]] și drepturile omului.<ref name="Evans 2015">{{Citat revistă|nume=Evans|prenume=Woody|legătură-autor=Woody Evans|dată=2015|titlu=Posthuman Rights: Dimensions of Transhuman Worlds|journal=Teknokultura|volum=12|număr=2|doi=10.5209/rev_TK.2015.v12.n2.49072}}</ref> Subiectul este discutat în profunzime în filmul documentar ''[[Plug & Pray]]'' din 2010.<ref>{{Citat web|url=http://www.plugandpray-film.de/en/content.html|nume=maschafilm|archiveurl=https://web.archive.org/web/20160212040134/http://www.plugandpray-film.de/en/content.html|lucrare=plugandpray-film.de|archivedate=12 February 2016|titlu=Content: Plug & Pray Film – Artificial Intelligence – Robots -}}</ref>

=== Superinteligența ===
Există limite pentru cât de inteligente pot fi mașinile sau hibrizii om-mașină? O superinteligență, hiperintelligență sau inteligență supraomenească este un agent ipotetic care ar avea o inteligență care depășește cu mult pe cea a celei mai strălucite și mai talentate minți umane. ''Superinteligența'' se poate referi și la forma sau gradul de inteligență posedat de un astfel de agent.<ref name="Roberts">{{Cite magazine}}</ref>

==== Singularitatea tehnologică ====
Dacă cercetarea despre [[Artificial general intelligence|IA puternică]] ar produce software suficient de inteligent, s-ar putea reprograma și îmbunătăți singură. Software-ul îmbunătățit ar fi chiar mai bun la a se îmbunătăți singur, ceea ce ar duce la o [[Singularitate tehnologică|auto-îmbunătățire recursivă]].<ref name="recurse"> <cite class="citation conference">[[Steve Omohundro|Omohundro, Steve]] (2008). ''Natura auto-imbunatatirii inteligentei artificiale'' . prezentat și distribuit la summitul Singularity din 2007, San Francisco, CA.</cite> <templatestyles src="Module:Citation/CS1/styles.css"></templatestyles></ref> Noua inteligență ar putea astfel să crească exponențial și să depășească în mod dramatic oamenii. Scriitorul de science fiction [[Vernor Vinge]] a numit acest scenariu „[[Singularitate tehnologică|singularitatea]]”.<ref name="Singularity"> [[Technological singularity|Singularitatea tehnologică]] : </ref> Singularitatea tehnologică este atunci când accelerarea progresului în tehnologii va provoca un efect în cascadă, în care inteligența artificială va depăși controlul și capacitatea intelectuală a omului, schimbând astfel radical sau chiar punând capăt civilizației. Deoarece capacitățile unei astfel de inteligențe pot fi imposibil de înțeles, singularitatea tehnologică este un eveniment dincolo de care evenimentele sunt imprevizibile sau chiar imposibil de imaginat.<ref name="Singularity" /><ref name="Roberts">{{Cite magazine}}</ref>

[[Ray Kurzweil]] a folosit [[Legea lui Moore|legea lui Moore]] (care descrie îmbunătățirea exponențială neîncetată a tehnologiei digitale) pentru a calcula că [[Desktop computer|calculatoarele desktop]] vor avea aceeași putere de procesare ca și creierul uman până în anul 2029 și prezice că singularitatea va avea loc în 2045. <ref name="Singularity"> [[Technological singularity|Singularitatea tehnologică]] : </ref>

==== Transumanismul ====
Proiectantul de roboți [[Hans Moravec]], ciberneticianul [[Kevin Warwick]] și inventatorul [[Ray Kurzweil]] au prezis că oamenii și mașinile se vor îmbina în viitor în [[Cyborg|cyborgi]] care vor fi mai capabili și mai puternici decât oricare dintre ei.<ref name="Transhumanism"> [[Transhumanism|Transhumanismul]] : </ref> Această idee, numită [[transumanism]], are rădăcini în [[Aldous Huxley]] și [[Robert Ettinger]] .

[[Edward Fredkin]] susține că „inteligența artificială este următoarea etapă a evoluției”, o idee propusă inițial de „[[Darwin among the Machines|Darwin între mașini]]” a lui [[Samuel Butler (romancier)|Samuel Butler]] (1863) și extinsă de [[George Dyson (science historian)|George Dyson]] în cartea cu același nume în 1998.<ref name="AI as evolution"> AI ca evoluție: </ref>

== În ficțiune ==
[[Fișier:Capek_play.jpg|miniatura| Însuși cuvântul „robot” a fost inventat de [[Karel Čapek]] în piesa de teatru ''[[R.U.R.|RUR]]'' din 1921, titlul ei însemnând „[[Rossum's Universal Robots|Roboți Universali Rossum]]” ]]
Ființele artificiale capabile de gândire au apărut ca instrumente narative încă din antichitate<ref name="AI in myth"> AI în mit: </ref> și au fost o temă persistentă în [[Științifico-fantastic|science fiction]].

Un [[Trope (literature)|motiv]] comun în aceste lucrări a început cu ''[[Frankenstein (roman)|Frankenstein]]'' al lui [[Mary Shelley]], unde o creație umană devine o amenințare pentru stăpânii săi. Motivul apare și în opere ca în cartea ''[[2001: A Space Odyssey|2001: O Odisee Spațială]]'' de [[2001: O odisee spațială (roman)|Arthur C. Clarke]] și filmul cu același titlu al lui [[2001: O odisee spațială (film)|Stanley Kubrick]] (ambele din 1968), cu [[HAL 9000]], computerul ucigaș care controlează nava spațială ''[[Discovery One]]''; precum și ''[[Terminatorul|The Terminator]]'' (1984) și ''[[Matrix|The Matrix]]''. În schimb, roboți credincioși sunt rari, cum ar fi Gort din ''[[Ziua în care Pământul s-a oprit]]'' (1951) și Bishop din ''[[Aliens - Misiune de pedeapsă|Aliens]]'' (1986), sunt mai puțin proeminenți în cultura populară.<ref>{{Citat revistă|nume=Buttazzo|prenume=G.|dată=July 2001|titlu=Artificial consciousness: Utopia or real possibility?|journal=[[Computer (magazine)|Computer (IEEE)]]|volum=34|număr=7|pagini=24–30|doi=10.1109/2.933500}}</ref>

[[Isaac Asimov]] a introdus cele [[Cele trei legi ale roboticii|trei legi ale roboticii]] în multe cărți și povestiri, mai ales seria „Multivac” despre un computer super-inteligent cu același nume. Legile lui Asimov sunt adesea aduse în discuțiile nespecialiștilor în etica mașinilor;<ref> Anderson, Susan Leigh. "Cele trei legi ale lui Asimov despre robotică" și metaetica mașinilor. " AI și societatea 22.4 (2008): 477-493. </ref> aproape toți cercetătorii de inteligență artificială sunt familiarizați cu legile lui Asimov prin cultura populară, dar ei le consideră în general inutile din mai multe motive, dintre care unul este ambiguitatea lor.<ref>{{Citat revistă|nume=McCauley|prenume=Lee|an=2007|titlu=AI armageddon and the three laws of robotics|url=|journal=Ethics and Information Technology|volum=9|număr=2|pagini=153–164|doi=10.1007/s10676-007-9138-2}}</ref>

[[Transumanism|Transumanismul]] (îmbinarea oamenilor și mașinilor) este explorat în [[manga]] ''[[Ghost in the Shell]]'' și în seria science-fiction ''[[Dune (roman)|Dune]]''. În anii 1980, seria Sexy Robots a artistului [[Hajime Sorayama]] a fost pictată și publicată în Japonia, reprezentând forma umană organică reală cu piei metalice pline de viață, și ulterior cartea „Gynoids", care a fost folosită de sau chiar i-a influențat pe producători de film, între care [[George Lucas]]. Sorayama nu a considerat niciodată că acești roboți organici sunt o parte reală a naturii, ci mereu un produs nenatural al minții umane, o fantezie existentă doar în minte chiar și atunci când este realizată în formă reală.

Mai multe lucrări utilizează IA pentru a ne forța să ne confruntăm cu întrebarea fundamentală despre ce ne face să fim umani, arătându-ne ființe artificiale care au [[Sentience|capacitatea de a simți]] și, astfel, de a suferi. Acest lucru apare în „[[R.U.R.|RUR]]” a lui [[Karel Čapek]], în filmele „[[Inteligență artificială (film)|Inteligența artificială]]” și „[[Ex Machina (film)|Ex Machina]]”, precum și în romanul „''[[Visează androizii oi electrice?|Visează androizii oi electrice?”]]'' de [[Philip K. Dick]]. Dick consideră ideea că înțelegerea subiectivității umane este modificată de tehnologia creată cu inteligența artificială.<ref>{{Citat revistă|nume=Galvan|prenume=Jill|dată=1 January 1997|titlu=Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"|journal=Science Fiction Studies|volum=24|număr=3|pagini=413–429|jstor=4240644}}</ref>

=== Manuale de IA ===
{{refbegin|30em}}
* {{cite book|ref=harv|last=Hutter|first=Marcus|author-link=Marcus Hutter|year=2005|title=Universal Artificial Intelligence|isbn=978-3-540-22139-5|publisher=Springer|location=Berlin|title-link=AIXI}}
* {{cite book|ref=harv|last=Jackson|first=Philip|author-link=Philip C. Jackson, Jr.|year=1985|title=Introduction to Artificial Intelligence|isbn=978-0-486-24864-6|publisher=Dover|edition=2nd}}
* {{cite book|ref=harv|last1=Luger|first1=George|author-link=George Luger|last2=Stubblefield|first2=William|author2-link=William Stubblefield|year=2004|title=Artificial Intelligence: Structures and Strategies for Complex Problem Solving|publisher=Benjamin/Cummings|edition=5th|isbn=978-0-8053-4780-7|url=http://www.cs.unm.edu/~luger/ai-final/tocfull.html}}
* {{cite book|last=Neapolitan|first=Richard|last2=Jiang|first2=Xia|year=2018|authorlink1=Richard Neapolitan|title=Artificial Intelligence: With an Introduction to Machine Learning|publisher=Chapman & Hall/CRC|isbn=978-1-138-50238-3|url=https://www.crcpress.com/Contemporary-Artificial-Intelligence-Second-Edition/Neapolitan-Jiang/p/book/9781138502383}}
* {{cite book|ref=harv|last=Nilsson|first=Nils|author-link=Nils Nilsson (researcher)|year=1998|title=Artificial Intelligence: A New Synthesis|publisher=Morgan Kaufmann|isbn=978-1-55860-467-4}}
* {{Russell Norvig 2003}}.
* {{Cite book|ref=harv|first=Stuart J.|last=Russell|first2=Peter|last2=Norvig|title=[[Artificial Intelligence: A Modern Approach]] <!-- | url = http://aima.cs.berkeley.edu/ -->|year=2009|edition=3rd|publisher=Prentice Hall|location=Upper Saddle River, New Jersey|isbn=978-0-13-604259-4|author-link=Stuart J. Russell|author2-link=Peter Norvig|pages=}}.
* {{cite book|ref=harv|first1=David|last1=Poole|author-link=David Poole (researcher)|first2=Alan|last2=Mackworth|author2-link=Alan Mackworth|first3=Randy|last3=Goebel|author3-link=Randy Goebel|year=1998|title=Computational Intelligence: A Logical Approach|publisher=Oxford University Press|location=New York|isbn=978-0-19-510270-3|url=http://www.cs.ubc.ca/spider/poole/ci.html}}
* {{cite book|last=Winston|first=Patrick Henry|author-link=Patrick Winston|year=1984|title=Artificial Intelligence|publisher=Addison-Wesley|location=Reading, MA|isbn=978-0-201-08259-3}}
* {{cite book|last=Rich|first=Elaine|author-link=Elaine Rich|year=1983|title=Artificial Intelligence|publisher=McGraw-Hill|isbn=978-0-07-052261-9}}
* {{cite book|last=Bundy|first=Alan|author-link=Alan Bundy|year=1980|title=Artificial Intelligence: An Introductory Course|publisher=Edinburgh University Press|edition=2nd|isbn=978-0-85224-410-4}}
* {{cite book|ref=harv|first1=David|last1=Poole|author-link=David Poole (researcher)|first2=Alan|last2=Mackworth|author2-link=Alan Mackworth|year=2017|title=Artificial Intelligence: Foundations of Computational Agents|publisher=Cambridge University Press|edition=2nd|isbn=978-1-107-19539-4|url=http://artint.info/index.html}}
{{refend
}}

=== Istoria IA ===

=== Alte surse ===
 

== Lectură suplimentară ==

[[Categorie:Tehnologii emergente]]
[[Categorie:Științe formale]]
[[Categorie:Cibernetică]]
[[Categorie:Inteligență artificială]]
[[Categorie:Inteligență artificială]]
[[Categorie:Pages with unreviewed translations]]

Versiunea de la 18 martie 2019 14:56

În informatică, inteligența artificială (IA) este inteligența expusă de mașini, spre deosebire de inteligența naturală, expusă de oameni și de unele animale. Informatica definește cercetarea IA ca studiu al „agenților inteligenți”: orice dispozitiv care își percepe mediul și efectuează acțiuni care maximizează șansa de a-și atinge cu succes obiectivele.[1] Mai exact, Kaplan și Haenlein definesc IA ca fiind „capacitatea unui sistem de a interpreta corect datele externe, de a învăța din astfel de date și de a folosi ceea ce a învățat pentru a-și atinge obiective și sarcini specifice printr-o adaptare flexibilă”.[2] Termenul „inteligență artificială” este utilizat colocvial pentru a descrie mașinile care imită funcțiile „cognitive” pe care le asociază oamenii cu alte minți umane, cum ar fi „învățarea” și „rezolvarea problemelor”.[3]

Întrucât mașinile devin din ce în ce mai capabile, sarcinile considerate a necesita „inteligență” sunt deseori eliminate din definiția IA, un fenomen cunoscut sub numele de efectul IA. O observație în teorema lui Tesler spune că „IA este ceea ce nu a fost încă făcut”.[4] De exemplu, recunoașterea optică a caracterelor este adesea exclusă din domeniul AI, după ce a devenit o tehnologie de rutină.[5] Capacitățile moderne ale mașinilor clasificate în general ca IA includ înțelegerea vorbirii umane,[6] concurarea la cel mai înalt nivel a unor sisteme de jocuri de strategie (cum ar fi șah și go),[7] autovehiculele autonome și rutarea inteligentă în rețelele de distribuție a conținutului, și simulările militare.

Împrumutând din literatura de management, Kaplan și Haenlein clasifica inteligență artificială în trei tipuri diferite de sisteme IA: inteligență artificială analitică, inspirată de om, și umanizată.[2] IA analitică are doar unele caracteristici compatibile cu inteligența cognitivă; ea generează o reprezentare cognitivă a lumii și utilizează învățarea bazată pe experiențe anterioare pentru a informa deciziile viitoare. IA inspirată de om are elemente din inteligența cognitivă și emoțională; înțelegerea emoțiilor umane, în plus față de elementele cognitive, și luarea în considerare a acestora în luarea deciziilor. IA umanizată prezintă caracteristicile tuturor tipurilor de competențe (de exemplu, inteligența cognitivă, emoțională și socială), este capabilă să fie conștientă de sine atât ca atare, cât și în interacțiunile cu ceilalți.

Inteligența artificială a fost fondată ca disciplină academică în 1956, și de atunci a trecut mai multe valuri de optimism,[8][9] urmate de dezamăgiri și pierderi de fonduri (cunoscute sub numele de „ierni ale IA”),[10][11] urmate și ele de noi abordări, succes și reînnoirea finanțării.[9][12] Pentru cea mai mare parte a istoriei sale, cercetarea IA a fost împărțită în subdomenii care adesea nu au reușit să comunice între ele.[13] Aceste subdomenii se bazează pe considerații tehnice, cum ar fi obiective specifice (de exemplu, „robotica” sau „învățarea automată”),[14] utilizarea unor anumite instrumente („logica” sau rețele neurale artificiale) sau pe diferențe filosofice profunde.[15][16][17] Subdomeniile se bazau și pe factori sociali (anumite instituții sau activitatea anumitor cercetători). [13]

Printre problemele (sau obiectivele) tradiționale ale cercetării IA se numără raționamentul, reprezentarea cunoștințelor, planificarea, învățarea, prelucrarea limbajului natural, percepția și capacitatea de a muta și manipula obiecte.[14] Inteligența generală se numără printre obiectivele pe termen lung ale domeniului.[18] Abordările includ metode statistice, inteligență computațională și IA simbolică tradițională. În AI se folosesc multe instrumente, între care versiuni de optimizare matematică și de căutare, rețele neurale artificiale și metode bazate pe statistici, probabilități și economie. Domeniul IA se bazează pe informatică, inginerie informațională, matematică, psihologie, lingvistică, filozofie și multe alte domenii.

Domeniul a fost întemeiat pe afirmația că inteligența umană „poate fi descrisă atât de precis încât poate fi făcută o mașină pentru a o simula”.[19] Acest lucru ridică argumente filosofice cu privire la natura minții și la etica creării de ființe artificiale dotate cu inteligență umană, care sunt chestiuni care au fost explorate de mit, ficțiune și filozofie încă din Antichitate.[20] Unii oameni consideră și că IA ar fi un pericol pentru omenire dacă progresează necontrolat.[21] Alții cred că, spre deosebire de revoluțiile tehnologice anterioare, IA va crea un risc de șomaj în masă. [22]

În secolul al XXI-lea, tehnicile de IA au înregistrat o renaștere în urma unor progrese concomitente în puterea de calcul, acumulării de cantități mari de date, și înțelegerii teoretice; iar tehnicile IA au devenit o parte esențială a industriei tehnologice, ajutând la rezolvarea multor probleme dificile în domeniul informaticii, ingineriei software și cercetării operaționale.[23][12]

Istorie

Fișier:Medeia and Talus.png
Talos, un automat mitic cu inteligență artificială din Antichitate

Ființele artificiale capabile de gândire apăreau în antichitate ca tehnici narative[24] și au fost obișnuite în ficțiune, ca în Frankenstein al lui Mary Shelley sau RUR (Rossum's Universal Robots) al lui Karel Čapek.[25] Aceste personaje și destinul lor au ridicat multe din aceleași probleme discutate acum în etica inteligenței artificiale.[20]

Studiul raționamentului „formal” (mecanic) a început cu filozofii și matematicienii din Antichitate. Studiul logicii matematice a condus direct la teoria computației a lui Alan Turing, care sugera că o mașină, amestecând simboluri simple ca „0” și „1”, ar putea simula orice acțiune de deducție matematică posibilă. Această observație, că calculatoarele numerice pot simula orice proces de raționament formal, este cunoscută sub numele de teza Church-Turing.[26] Odată cu descoperirile concurente din neurobiologie, teoria informației și cibernetică, cercetătorii au luat în considerare posibilitatea creării unui creier electronic. Turing a sugerat că „dacă un om nu ar putea distinge între răspunsurile unei mașini și cele ale unui om, atunci mașina ar putea fi considerată «inteligentă»”.[27] Prima lucrare care este acum recunoscută în general ca fiind de IA a fost „neuronii artificiali” Turing-compleți ai lui McCullouch și Pitts.[28]

Domeniul cercetării IA s-a născut la un workshop la Colegiul Dartmouth în 1956.[29] Participantii Allen Newell (CMU), Herbert Simon (CMU), John McCarthy (MIT), Marvin Minsky (MIT) și Arthur Samuel (IBM) au devenit fondatorii și liderii cercetarii IA.[30] Ei și studenții lor au produs programe pe care presa le-a descris ca fiind „uimitoare“:[31] calculatoarele învățau strategii de dame (c . 1954)[32] (și până în 1959 ajunseseră să joace mai bine decât media jucătorilor umani),[33] să rezolve probleme de algebră, să demonstreze teoreme logice (Logic Theorist, prima rulare c. 1956) și să vorbească în engleză.[34] Până la mijlocul anilor 1960, cercetarea în SUA a fost finanțată în mare măsură de Departamentul Apărării,[35] și s-au înființat laboratoare în întreaga lume.[36] Fondatorii IA erau optimiști în privința viitorului: Herbert Simon prezicea: „mașinile vor fi capabile, în decurs de douăzeci de ani, să facă orice lucru poate face un om”. Marvin Minsky era de acord, scriind: „într-o generație... problema creării «inteligenței artificiale» va fi rezolvată substanțial”.[8]

Ei nu puteau însă identifica dificultatea unor sarcini rămase de realizat. Progresul a încetinit, iar în 1974, în urma criticii lui Sir James Lighthill[37] și a presiunii continue a Congresului SUA de a finanța proiecte mai productive, guvernele american și britanic au întrerupt cercetarea exploratorie în IA. Următorii câțiva ani aveau mai târziu să fie numiți „iarna IA”,[10] o perioadă în care obținerea de finanțare pentru proiectele de IA a fost dificilă.

La începutul anilor 1980, cercetarea IA a fost revitalizată de succesul comercial al unor sisteme expert,[38] o formă de programe IA care simulau cunoștințele și abilitățile analitice ale experților umani. Până în 1985, piața pentru IA a ajuns la peste un miliard de dolari. În același timp, proiectul japonez de calculator de generația a cincea a inspirat guvernele american și britanic să reînceapă finanțarea cercetării academice.[9] Cu toate acestea, începând cu prăbușirea pieței de mașini Lisp în 1987, IA a căzut din nou în dizgrație și a început o a doua pauză de durată.[11]

La sfârșitul anilor 1990 și începutul secolului al XXI-lea, IA a început să fie folosită pentru logistică, data mining, diagnostic medical și în alte domenii.[23] Succesul s-a datorat creșterii puterii de calcul (vezi Legea lui Moore), accentului mai mare pus pe rezolvarea problemelor specifice, legături noi între IA și alte domenii (cum ar fi statistica, economia și matematica) și angajamentul cercetătorilor față de metodele matematice și standardele științifice.[39] Deep Blue a devenit primul sistem de joc de șah pe calculator care l-a învins pe campionul mondial de șah, Garry Kasparov, la . [40]

În 2011, la o emisiune-concurs Jeopardy!, într-un meci demonstrativ, sistemul de răspuns la întrebări al IBM, Watson, i-a învins detașat pe cei mai mari doi campioni la Jeopardy!, Brad Rutter și Ken Jennings.[41] Calculatoarele mai rapide, îmbunătățirile algoritmice și accesul la cantități mari de date au permis progresul învățării automate și percepției mașinilor; metodele de învățare profundă mari consumatoare de date au început să domine testele de acuratețe prin jurul anului 2012.[42] Kinect, care oferă o interfață 3D de mișcare corporală pentru Xbox 360 și Xbox One, utilizează algoritmi care au rezultat din îndelungate cercetări de IA,[43] la fel ca asistenții personali inteligenți din smartphone-uri.[44] În martie 2016, AlphaGo a câștigat 4 din 5 jocuri de go într-un meci cu campionul la go Lee Sedol, devenind primul sistem de joc go care a învins un jucător profesionist de go fără handicap.[7][45] La Future of Go Summit din 2017, AlphaGo a câștigat un meci de trei jocuri cu Ke Jie,[46] care la acea vreme deținea locul 1 în clasamentul mondial de clasament de doi ani.[47][48] Acest lucru a marcat finalizarea unui reper important în dezvoltarea inteligenței artificiale, deoarece go este un joc extrem de complex, mult mai complex decât șahul.

Potrivit lui Jack Clark de la Bloomberg, anul 2015 a fost un an de referință pentru inteligența artificială, numărul de proiecte software care utilizează IA la Google crescând de „utilizare sporadică” în 2012 la peste 2.700 de proiecte. Clark prezintă, de asemenea, date factuale care indică faptul că ratele de eroare din software-ul de procesare a imaginilor au scăzut semnificativ începând cu 2011.[49] El atribuie acest lucru unei creșteri a rețelelor neurale accesibile, datorită creșterii infrastructurii de cloud computing și a creșterii numărului de instrumente și seturi de date pentru cercetare.[12] Alte exemple menționate includ dezvoltarea de către Microsoft a unui sistem Skype care poate traduce automat dintr-o limbă în alta și sistemul Facebook care poate descrie imaginile pentru nevăzători.[49] Într-un sondaj din 2017, una din cinci companii a raportat că „a încorporat IA în anumite oferte sau procese”.[50][51] În preajma lui 2016, China a accelerat foarte mult finanțarea guvernamentală; având în vedere cantitatea mare de date disponibilă acolo și producția sa de cercetare în creștere rapidă, unii observatori consideră că ar putea fi pe cale să devină o „superputere IA”.[52][53]

Elementele de bază

O IA tipică își analizează mediul și efectuează acțiuni care îi maximizează șansele de succes.[1] Funcția utilitate (sau obiectiv) dorită pentru o OA poate fi simplă („1 dacă IA câștigă jocul de go, 0 în caz contrar”) sau complexă („efectuează acțiuni matematic asemănătoare celor care au reușit în trecut”). Obiectivele pot fi definite explicit sau induse. Dacă IA este programată pentru „învățarea prin întărire”, obiectivele pot fi induse implicit prin recompensarea unor tipuri de comportament sau prin pedepsirea altora.[a] Alternativ, un sistem evolutiv poate induce scopuri prin folosirea unei funcții de fitness pentru a muta și replica în mod preferențial sistemele AI cu scoruri mari, similar cu modul în care animalele au evoluat pentru a-și dori în mod inerent anumite obiective, cum ar fi găsirea de alimente. [54] Unele sisteme AI, cum ar fi cel mai apropiat vecin, în loc de rațiune prin analogie, aceste sisteme nu au scopuri generale, cu excepția cazului în care scopurile sunt implicite în datele lor de instruire. [55] Astfel de sisteme pot fi încă evaluate, dacă sistemul non-goal este încadrat ca un sistem al cărui "scop" este de a-și îndeplini cu succes sarcina îngustă de clasificare. [56]

IA gravitează adesea în jurul utilizării algoritmilor. Un algoritm este un set de instrucțiuni neechivoce pe care un calculator mecanic le poate executa.[b] Un algoritm complex este adesea construit pe baza altor algoritmi mai simpli. Un exemplu simplu al unui algoritm este următoarea rețetă (optimă pentru primul jucător) la jocul de X și 0:[57]

  1. Dacă cineva „amenință” (adică are două pe rând), ocupă pătratul rămas. In caz contrar,
  2. dacă o mișcare „ramifică” pentru a crea două amenințări simultan, joacă această mișcare. În caz contrar,
  3. ocupă pătratul central dacă acesta este liber. În caz contrar,
  4. dacă adversarul a jucat într-un colț, ocupă colțul opus. În caz contrar,
  5. ocupă un colț gol dacă există unul. În caz contrar,
  6. ocupă orice pătrat gol.

Mulți algoritmi IA sunt capabili să învețe din date; se pot îmbunătăți prin învățarea unor noi euristici (strategii sau „reguli generale”, care au funcționat bine în trecut) sau pot scrie alți algoritmi. Unii dintre „învățăceii” descriși mai jos, între care rețelele bayesiene, arborii de decizie și cel mai apropiat vecin, ar putea teoretic (dacă dispun de date, timp și memorie infinite) să învețe să aproximeze orice funcție, inclusiv combinația de funcții matematice care ar descrie cel mai bine lumea. Prin urmare, acești cursanți ar putea să obțină toate cunoștințele posibile, luând în considerare toate ipotezele posibile și potrivindu-le cu datele. În practică, aproape niciodată nu se poate lua în considerare orice posibilitate, din cauza fenomenului de „explozie combinatorică”, în care timpul necesar pentru a rezolva o problemă crește exponențial. O mare parte din cercetarea de IA implică determinarea modului de identificare și de evitare a unei game largi de posibilități care sunt puțin probabil să fie benefice.[58][59] De exemplu, atunci când se vizualizează o hartă și se caută pentru cel mai scurt drum care duce de la Denver la New York, în cele mai multe cazuri, se poate sări peste orice drum prin San Francisco sau alte zone aflate mult la vest; astfel, o IA care utilizează un algoritm de trasare a traiectoriei ca A* poate evita explozia combinatorie care ar rezulta dacă ar trebui calculat fiecare traseu posibil în parte.[60]

Cea mai veche abordare de IA a fost simbolismul (cum ar fi logica formală): „Dacă un adult altfel sănătos are febră, atunci poate să aibă gripă”. O a doua abordare, mai generală, este inferența bayesiană: „Dacă pacientul curent are febră, ajustează probabilitatea ca acesta să aibă gripă așa sau așa”. Cea de-a treia abordare majoră, extrem de populară în aplicațiile de IA de afaceri de rutină, sunt analogizatori precum SVM și cel mai apropiat vecin: „După examinarea înregistrărilor despre pacienți cunoscuți din trecut, a căror temperatură, simptome, vârstă și alți factori se potrivesc cel mai mult cu pacientul actual, acei pacienți s-au dovedit a avea gripă”. O a patra abordare este mai greu de înțeles intuitiv, dar este inspirată de felul în care funcționează mecanismul creierului: abordarea cu rețele neurale artificiale folosește „neuroni” artificiali care pot învăța prin compararea cu rezultatul dorit și modificând punctele tari ale conexiunilor dintre neuronii săi interni pentru a „întări” conexiunile care par astfel utile. Aceste patru abordări principale se pot suprapune între ele și cu sisteme evolutive; de exemplu, rețelele neurale pot învăța să facă inferențe, să generalizeze și să facă analogii. Unele sisteme utilizează, implicit sau explicit, mai multe dintre aceste abordări, alături de mulți alți algoritmi de IA și non-IA; [61] adesea, cea mai bună abordare diferă în funcție de problemă.[62][63]

Linia albastră ar putea fi un exemplu de overfitting a unei funcții liniare din cauza zgomotului aleatoriu.

Algoritmii de învățare funcționează pe baza faptului că strategiile, algoritmii și inferențele care au funcționat bine în trecut vor continua să funcționeze bine și în viitor. Aceste concluzii pot fi evidente, cum ar fi „întrucât soarele a răsărit în fiecare dimineață pentru ultimele 10.000 de zile, probabil că va răsări și mâine dimineață”. Ele pot fi nuanțate, cum ar fi „X% din familii au specii separate din punct de vedere geografic cu variante de culoare, deci există o șansă de Y% să existe lebede negre încă nedescoperite”. Mașinile de învățare lucrează și pe baza „briciului lui Occam”: cea mai simplă teorie care explică datele este cea mai probabilă. Prin urmare, pentru a avea succes, o mașină care învață trebuie concepută astfel încât să prefere teoriile mai simple celor mai complexe, cu excepția cazurilor în care teoria complexă se dovedește a fi substanțial mai bună. Blocarea pe o teorie foarte complexă, dar proastă, care se potrivește cu toate datele de învățare din trecut, se numește overfitting. Multe sisteme încearcă să reducă overfittingul recompensând o teorie în funcție de cât de bine se potrivește cu datele, dar și penalizând-o în funcție de cât de complexă este.[64] Pe lângă suprapunerea clasică, mașinile pot dezamăgi și „învățând lecția greșită”. Un exemplu este un clasificator de imagini antrenat numai pe imagini de cai maro și pisici negre ar putea concluziona că toate petecele de culoare brună ar putea fi cai.[65] Un exemplu din lumea reală este că, spre deosebire de oameni, clasificatoarele de imagine actualee nu determină relația spațială dintre componentele imaginii; în schimb, ele învață modele abstracte de pixeli pe care oamenii le ignoră, dar care se corelează liniar cu imaginile anumitor tipuri de obiecte reale. Suprapunând superficial un astfel de model pe o imagine legitimă are drept rezultat o imagine „contradictorie” pe care sistemul nu o poate clasifica.[c][66][67][68]

Un sistem de conducere automată poate folosi o rețea neurală pentru a determina care părți ale imaginii par să se potrivească cu imaginile anterioare de pietoni din procesul de antrenare și apoi să modeleze acele zone ca niște prisme dreptunghiulare care se mișcă încet, dar întrucâtva imprevizibile, și care trebuie evitate.[69][70]

În comparație cu oamenii, IA existente nu dispun de mai multe trăsături ale „raționamentului de bun simț”; cel mai notabil, oamenii au mecanisme puternice pentru a raționa despre „fizica naivă”, cum ar fi spațiul, timpul și interacțiunile fizice. Aceasta permite chiar copiilor mici să tragă ușor concluzii cum ar fi „dacă rostogolesc pixul acest de pe masă, va cădea pe podea”. Oamenii au, de asemenea, un mecanism puternic de „psihologie populară”, care îi ajută să interpreteze propozițiile în limbaj natural precum „consilierii locali au refuzat autorizarea unei demonstrații pentru că aceasta militează pentru violență”. (O IA generică are dificultăți în a deduce dacă consilierii sau demonstranții sunt cei care pretind că susțin violența.)[71][72][73] Această lipsă de „cultură generală” înseamnă că IA face deseori alte greșeli decât cele ale oamenilor, în moduri care pot părea de neînțeles. De exemplu, autovehiculele autonome existente nu pot raționa cu privire la locația și intențiile pietonilor exact așa cum fac oamenii, iar în schimb trebuie să utilizeze moduri de gândire neumane pentru a evita accidentele.[74][75][76]

Probleme

Scopul general al cercetării inteligenței artificiale este de a crea o tehnologie care să permită calculatoarelor și mașinilor să funcționeze într-o manieră inteligentă. Problema generală a simulării (sau a creării) inteligenței a fost împărțită în subprobleme. Acestea constau în particularități sau capacități pe care cercetătorii se așteaptă să le prezinte unui sistem inteligent. Caracteristicile descrise mai jos au primit cea mai mare atenție.[14]

Motivarea, rezolvarea problemelor

Cercetătorii timpurii au dezvoltat algoritmi care imită pas cu pas raționamentul pe care oamenii îl folosesc atunci când rezolvă puzzle-uri sau fac deduceri logice.[77] Până la sfârșitul anilor 1980 și 1990, cercetarea IA a elaborat metode de abordare a informațiilor incerte sau incomplete, folosind concepte din probabilitate și economie.[78]

Acești algoritmi s-au dovedit a fi insuficienți pentru rezolvarea problemelor mari de raționament, deoarece ajungeau într-o „explozie combinatorică”: deveneau exponențial mai lenți, pe măsură ce problemele creșteau.[58] De fapt, chiar și oamenii folosesc rareori deducția pas-cu-pas pe care a reușit să o modeleze cercetarea timpurie în IA. Ei rezolvă majoritatea problemelor lor folosind judecăți rapide și intuitive.[79]

Reprezentarea cunoștințelor

O ontologie reprezintă cunoștințele ca un set de concepte în cadrul unui domeniu și relațiile dintre aceste concepte.

Reprezentarea cunoștințelor[80] și ingineria cunoștințelor[81] sunt esențiale pentru cercetarea clasică din IA. Unele „sisteme expert” încearcă să reunească cunoștințe explicite posedate de experți într-un domeniu îngust. În plus, unele proiecte încearcă să strângă cunoștințele „de bun simț”, cunoscute oamenilor obișnuiți, într-o bază de date care conține cunoștințe extinse despre lume. Printre lucrurile pe care o bază cuprinzătoare de cunoștințe comune ar conține sunt: obiectele, proprietățile, categoriile și relațiile dintre obiecte;[82] situații, evenimente, stări și timp; [83] cauze și efecte;[84] cunoștințe despre cunoștințe (ce știm despre ceea ce știu ceilalți);[85] și multe alte domenii mai puțin bine cercetate. O reprezentare a „ceea ce există” este o ontologie: setul de obiecte, relațiile, conceptele și proprietățile descrise formal astfel încât agenții software să le poată interpreta. Semantica acestor elemente este capturată sub formă de concepte, roluri și indivizi din logica descriptivă și sunt, de obicei, implementate drept clase, proprietăți și indivizi în Web Ontology Language.[86] Cele mai generale ontologii sunt numite ontologii superioare, care încearcă să ofere o bază pentru toate celelalte cunoștințe[87] acționând ca mediatori între ontologiile de domeniu care acoperă cunoștințe specifice despre un anumit domeniu de cunoștințe (domeniu sau arie de interes). Astfel de reprezentări formale ale cunoștințelor pot fi utilizate în indexarea și regăsirea pe bază de conținut,[88] interpretarea scenei,[89] sprijinirea deciziilor clinice,[90] descoperirea de cunoștințe (extragerea de inferențe „interesante“ și deducții acționabile din baze mari de date),[91] și alte domenii.[92]

Printre cele mai dificile probleme ale reprezentării cunoștințelor se numără:

Raționamentul implicit și problema calificării
Multe dintre lucrurile pe care oamenii le cunosc iau forma unor „ipoteze de lucru”. De exemplu, dacă în conversație vine vorba despre o pasăre, oamenii își imaginează de obicei un animal care are dimensiunea pumnului, care cântă și zboară. Niciunul dintre aceste lucruri nu este adevărat despre toate păsările. John McCarthy a identificat această problemă în 1969[93] drept problem calificării: pentru orice regulă de bun simț pe care cercetătorii de IA doresc să o reprezinte, există un număr mare de excepții. Aproape nimic nu este pur și simplu adevărat sau fals în felul în care o impune logica abstractă. Cercetarea IA a explorat o serie de soluții la această problemă.[94]
Lărgimea cunoașterii generale
Numărul de fapte atomice pe care le știe un om oarecare este foarte mare. Proiectele de cercetare care încearcă să construiască o bază de cunoștințe completă a cunoștințelor comune (de exemplu, Cyc) necesită o cantitate enormă de inginerie ontologică laborioasă - acestea trebuie să fie construite manual, fiecare concept complicat pe rând.[95]
Forma subsimbolică a unor cunoștințe comune
O mare parte din ceea ce știu oamenii nu este reprezentat ca „fapte” sau „afirmații” pe care le-ar putea exprima verbal. De exemplu, un maestru de șah va evita o anumită poziție de șah pentru că „se simte prea expus”[96] sau un critic de artă poate să arunce o singură privire pe o statuie și să-și dea seama că este un fals.[97] Acestea sunt intuiții și tendințe inconștiente și subsimbolice din creierul uman.[98] Cunoașterea de acest gen informează, sprijină și oferă un context pentru cunoașterea simbolică și conștientă. Ca și în cazul problemelor legate de raționamentul subsimbolic, se speră că IA situată, inteligența computațională sau IA statistică va oferi modalități de reprezentare a acestui tip de cunoaștere.[98]

Planificarea

Un sistem de control ierarhic este o formă de sistem de control în care un ansamblu de dispozitive și software de conducere este aranjat într-o ierarhie.

Agenții inteligenți trebuie să poată să-și stabilească și să îndeplinească obiective.[99] Ei au nevoie de o modalitate de a vizualiza viitorul — o reprezentare a stării lumii și să poată face previziuni cu privire la modul în care acțiunile lor o vor schimba — și să poată face alegeri care maximizează utilitatea (sau „valoarea”) alegerilor disponibile.[100]

În problemele de planificare clasică, agentul poate presupune că este singurul sistem care acționează în lume, permițând agentului să se asigure de consecințele acțiunilor sale.[101] Cu toate acestea, dacă agentul nu este singurul actor, atunci este necesar ca agentul să poată raționa sub incertitudine. Aceasta necesită un agent care să nu poată evalua doar mediul său și să facă previziuni, ci și să își evalueze previziunile și să se adapteze pe baza evaluării sale.[102]

Planificarea multi-agent utilizează cooperarea și concurența multor agenți pentru a atinge un obiectiv dat. Astfel de comportament emergent este folosit de algoritmi evolutivi și de inteligența de roi.[103]

Învăţare

Învățarea automată, un concept fundamental al cercetării IA de la începutul domeniului,[104] este studiul algoritmilor de calcul care se îmbunătățesc automat prin experiență.[105][106]

Învățarea nesupravegheată este abilitatea de a găsi șabloane într-un flux de intrare, fără a cere unui om să eticheteze mai întâi intrările.[107] Învățarea supravegheată include atât clasificarea, cât și regresia numerică, care necesită etichetarea în prealabil de către om a datelor de intrare. Clasificarea este folosită pentru a determina în ce categorie aparține ceva, după ce a văzut câteva exemple de lucruri din mai multe categorii. Regresia este încercarea de a produce o funcție care descrie relația dintre intrări și ieșiri și prezice modul în care ieșirile ar trebui să se schimbe odată cu schimbarea intrărilor.[106] Atât clasificatorii, cât și mașinile de învățare prin regresie pot fi văzuți ca „aproximatori de funcții”, încercând să învețe o funcție necunoscută (eventual implicită); de exemplu, un clasificator de spam poate fi privit ca învățând o funcție care mapează textul unui e-mail într-una din cele două categorii, „spam” sau „non spam”. Teoria învățării computaționale poate evalua cursanții prin complexitate computațională, prin complexitatea eșantionului (de câte date este nevoie) sau prin alte noțiuni de optimizare.[108] În învățarea prin întărire,[109] agentul este răsplătit pentru răspunsuri bune și pedepsit pentru cele greșite. Agentul folosește această succesiune de recompense și pedepse pentru a forma o strategie de operare în spațiul problemei.

Prelucrarea limbajului natural

Un arbore de parsare reprezintă structura sintactică a unei propoziții conform unei anumite gramatici formale.

Prelucrarea limbajului natural[110] (PLN) oferă mașinilor posibilitatea de a citi și de a înțelege limbajul uman. Un sistem suficient de puternic de procesare a limbajului natural ar permite interfețele utilizator în limbaj natural și dobândirea de cunoștințe direct din surse scrise de om, cum ar fi textele știrilor. Unele aplicații simple ale procesării limbajului natural includ recuperarea informațiilor, extragerea cunoștințelor din texte, răspunsul la întrebări[111] și traducerea automată. [112] Multe abordări actuale utilizează frecvențe de co-apariție a cuvintelor pentru a construi reprezentări sintactice ale textului. Strategiile de căutare a cuvintelor-cheie sunt populare și scalabile, dar simpliste; o interogare de căutare după „câine” ar putea să se potrivească doar documentelor cu cuvântul literal „câine” și să rateze un document cu cuvântul „pudel”. Strategiile de „afinitate lexicală” utilizează apariția unor cuvinte precum „accident” pentru a evalua sentimentul unui document. Abordările statistice moderne ale PLN pot combina toate aceste strategii, precum și altele, și ating adesea o acuratețe acceptabilă la nivel de pagină sau de paragraf, dar continuă să lipsească înțelegerea semantică necesară pentru a clasifica bine propoziții izolate. Pe lângă dificultățile obișnuite cu codificarea cunoașterii semantice, PLN semantică existentă scalează, uneori, prea slab pentru a fi viabilă în aplicațiile curente. Dincolo de PLN semantică, scopul final al PLN „narative” este de a încorpora o înțelegere deplină a raționamentului de bun-simț.[113]

Percepţie

Detectarea elementelor (ilustrată: detectarea muchiilor) ajută IA să compună structuri abstracte informative din datele brute.

Percepția automată[114] este abilitatea de a folosi date de intrare de la senzori (cum ar fi camerele (de spectru vizibil sau infraroșu), microfoane, semnale wireless și lidare, sonare, radare si senzori tactili) pentru a deduce aspecte ale lumii. Aplicațiile includ recunoașterea vorbirii,[115] recunoașterea facială și recunoașterea obiectelor.[116] Vederea mașinilor este abilitatea de a analiza intrările vizuale. O astfel de intrare este de obicei ambiguă; un pieton uriaș, de cincizeci de metri, aflat la distanță, poate produce exact aceiași pixeli ca un pieton de dimensiuni normale aflat în apropiere, ceea ce necesită ca IA să judece probabilitatea relativă și rezonabilitatea diferitelor interpretări, de exemplu prin utilizarea modelului său de obiecte pentru a evalua că nu există pietoni de cincizeci de metri înălțime.[117]

Mișcare și manipulare

IA este mult folosită în robotică.[118] Brațele robotice avansate și alți roboți industriali, utilizați pe scară largă în fabricile moderne, pot învăța din experiență cum să se deplaseze eficient în ciuda prezenței frecării și alunecării angrenajelor.[119] Un robot mobil modern, atunci când i se dă un mediu mic, static și vizibil, își poate determina cu ușurință locația și își poate reprezenta mediul; totuși, mediile dinamice, cum ar fi (în endoscopie) interiorul corpului unui pacient viu, reprezintă o provocare mai mare. Planificarea mișcării este procesul de descompunere a unei sarcini de mișcare în „primitive”, cum ar fi mișcările individuale comune. O astfel de mișcare implică adesea mișcare conformă, un proces în care mișcarea necesită menținerea unui contact fizic cu un obiect.[120][121][122] Paradoxul lui Moravec generalizează că abilitățile senzorimotorii de nivel scăzut, pe care oamenii le iau ca atare sunt, în mod contraintuitiv, greu de programat într-un robot; paradoxul este numit după Hans Moravec, care a afirmat în 1988 că „este destul de ușor să se facă computerele să prezinte performanțe la nivelul adulților pe testele de inteligență sau la jocul de dame, dar este dificil spre imposibil să capete abilitățile unui copil de un an când vine vorba de percepție și mobilitate”.[123][124] Acest lucru se datorează faptului că, spre deosebire de jocul de dame, dexteritatea fizică a fost o țintă directă a selecției naturale timp de milioane de ani.[125]

Inteligența socială

Kismet, un robot cu abilități sociale rudimentare[126]

Paradoxul lui Moravec poate fi extins la multe forme de inteligență socială.[127][128] Distribuirea coordonării multi-agent a vehiculelor autonome rămâne o problemă dificilă.[129] Calculul afectiv este o umbrelă interdisciplinară care cuprinde sisteme care recunosc, interpretează, procesează sau simulează afecțiunile umane.[130][131][132] Printre succesele moderate legate de calculul se numără analiza textuală a sentimentelor și, mai recent, analiza afectivă multimodală, în care IA clasifică afectele prezentate de un subiect înregistrat pe un film.[133]

Pe termen lung, aptitudinile sociale și înțelegerea emoției umane și a teoriei jocurilor ar fi valoroase pentru un agent social. Capacitatea de a prezice acțiunile altora prin înțelegerea motivelor și a stărilor emoționale ar permite unui agent să ia decizii mai bune. Unele sisteme informatice imită emoțiile și expresiile umane pentru a deveni mai sensibile la dinamica emoțională a interacțiunii umane sau pentru a facilita altfel interacțiunea om-calculator.[134] În mod similar, unii asistenți virtuali sunt programați să poarte conversații sau chiar să se pălăvrăgească în glumă; acest lucru tinde să ofere utilizatorilor naivi o concepție nerealistă despre cât de inteligenți sunt de fapt agenții automați existenți. [135]

Inteligența generală

Din punct de vedere istoric, proiectele ca baza de cunoștințe Cyc (1984-) și inițiativa japoneză masivă a sistemelor informatice din generația a cincea (1982-1992), au încercat să acopere amploarea cunoașterii umane. Aceste proiecte timpurii nu au reușit să scape de limitările modelelor logice simbolice necantitative și, în retrospectivă, au subestimat foarte mult dificultatea inteligenței artificiale inter-domeniu. În zilele noastre, marea majoritate a cercetătorilor actuali din IA lucrează în schimb pe aplicații de „IA îngust” mai tractabile (cum ar fi diagnosticul medical sau navigația automobilelor).[136] Mulți cercetători prognozează că astfel de „IA înguste" vor lucra în diferite domenii individuale, și în cele din urmă vor fi integrate într-o mașină cu inteligență generală artificială (AGI) combinând majoritatea competențelor înguste menționate în acest articol și într-un anumit punct chiar depășind capacitatea umană în majoritatea sau toate aceste domenii.[18][137] Multe progrese au o semnificație generală, pe mai multe domenii. Un exemplu de mare anvergură este faptul că DeepMind a dezvoltat în 2010 o „inteligență artificială generalizată” care ar putea învăța multe jocuri Atari diferite de una singură și mai târziu a dezvoltat o variantă a sistemului care reușește la învățarea secvențială.[138][139][140] Pe lângă învățarea prin transfer,[141] descoperirile ipotetice ale IGA ar putea cuprinde dezvoltarea unor arhitecturi reflexive care să se poată implica în metaraționamentul decizional-teoretic și găsirea unui mod de a „absorbi” o bază de cunoștințe cuprinzătoare din întregul web nestructurat.[6] Unii susțin că un fel de „algoritm master” (încă nedescoperit) conceptual simplu, dar matematic dificil, ar putea conduce la AGI.[142] În cele din urmă, câteva abordări „emergente“, privesc la simularea inteligenței umane extrem de îndeaproape, și cred că unele caracteristici antropomorfe, cum ar fi creierul artificial sau simularea dezvoltării copiilor pot ajunge într-o zi într-un punct critic în care apare inteligența generală.[143][144]

Multe dintre problemele din acest articol pot necesita, de asemenea, inteligență generală, dacă mașinile trebuie să rezolve problemele așa cum o fac oamenii. De exemplu, chiar și sarcini simple, cum ar fi traducerea automată, necesită ca o mașină să citească și să scrie în ambele limbi (PLN), să urmeze logica (raționamentul) autorului, să știe despre ce se vorbește (cunoștințe) și să reproducă cu fidelitate intenția originară a autorului (inteligență socială). O problemă precum traducerea automată este considerată „IA-completă”, pentru că toate aceste probleme trebuie rezolvate simultan pentru a considera că mașina a atins performanța unui om.

Abordări

Nu există o teorie sau paradigmă unificatoare care să ghideze cercetarea de IA. Cercetătorii nu au căzut de acord asupra multor aspecte.[145] Câteva dintre cele mai îndelungate întrebări care au rămas fără răspuns sunt următoarele: ar trebui inteligența artificială să simuleze inteligența naturală prin studiul psihologiei sau neurobiologiei? Sau biologia umană este irelevantă pentru cercetarea IA, așa cum este biologia păsărilor pentru ingineria aeronautică?[15] Poate fi descris un comportament inteligent folosind principii simple și elegante (cum ar fi logica sau optimizarea)? Sau este neapărat nevoie de rezolvarea unui număr mare de probleme complet independente?[16]

Cibernetica și simularea creierului

În anii 1940 și 1950, mai mulți cercetători au explorat legătura dintre neurobiologie, teoria informațiilor și cibernetică. Unii dintre aceștia au construit mașini care utilizează rețele electronice pentru a expune informații rudimentare, cum ar fi țestoasele lui W. Gray Walter și fiara de la Johns Hopkins. Mulți dintre acești cercetători s-au adunat pentru întâlnirile Societății Teleologice de la Universitatea Princeton și în Clubul Ratio din Anglia.[146] Până în 1960, această abordare a fost în mare parte abandonată, deși elemente ale acesteia aveau să fie reînviate în anii 1980.

Simbolice

Când accesul la calculatoarele digitale a devenit posibil la mijlocul anilor 1950, cercetarea IA a început să exploreze posibilitatea ca inteligența umană să poată fi redusă la manipularea simbolurilor. Cercetarea a fost centrată în trei instituții: Universitatea Carnegie Mellon, Stanford și MIT, iar după cum este descris mai jos, fiecare și-a dezvoltat propriul stil de cercetare. John Haugeland a numit aceste abordări simbolice ale IA „good old-fashioned AI” („GOFAI”; în traducere liberă „IA bună ca pe vremuri”).[147] În anii 1960, abordările simbolice au avut un mare succes în simularea gândirii la nivel înalt în programele demonstrative mici. Abordările bazate pe cibernetică sau pe rețele neurale artificiale au fost abandonate sau împinse în fundal.[148] Cercetătorii din anii 1960 și 1970 au fost convinși că abordările simbolice ar reuși în cele din urmă să creeze o mașină cu inteligență generală artificială și să considere acest lucru scopul țelului lor.

Simularea cognitivă

Economistul Herbert Simon și Allen Newell au studiat abilitățile de rezolvare a problemelor umane și au încercat să le formalizeze, iar activitatea lor a pus bazele domeniului inteligenței artificiale, precum și ale științei cognitive, cercetării operaționale și științei managementului. Echipa lor de cercetare a folosit rezultatele experimentelor psihologice pentru a dezvolta programe care au simulat tehnicile pe care oamenii le foloseau pentru rezolvarea problemelor. Această tradiție, centrată pe Universitatea Carnegie Mellon, avea să culmineze în cele din urmă în dezvoltarea arhitecturii Soar în mijlocul anilor 1980.[149][150]

Pe bază de logică

Spre deosebire de Simon și Newell, John McCarthy a simțit că mașinile nu au nevoie să simuleze gândirea umană, ci ar trebui să încerce să găsească esența raționamentului abstract și a rezolvării problemelor, indiferent dacă oamenii folosesc aceleași algoritmi.[15] Laboratorul său de la Stanford (SAIL) s-a concentrat pe utilizarea logicii formale pentru a rezolva o mare varietate de probleme, inclusiv reprezentarea cunoștințelor, planificarea și învățarea.[151] Logica a fost, de asemenea, subiectul unor lucrări de la Universitatea din Edinburgh și din alte părți ale Europei, care au condus la dezvoltarea limbajului de programare Prolog și a științei programării logice.[152]

Anti-logice sau scruffy

Cercetătorii de la MIT (precum Marvin Minsky și Seymour Papert)[153] au constatat că rezolvarea unor probleme dificile de vedere și prelucrarea limbajului natural necesită soluții ad-hoc — ei au susținut că nu există un principiu simplu și general (cum ar fi logica) care să captureze toate aspectele comportamentului inteligent. Roger Schank descrie abordările lor „anti-logice” ca fiind „scruffy” (spre deosebire de paradigmele „neat” de la CMU și Stanford).[16] Bazele de cunoștințe de bun simț (cum ar fi Cyc a lui Doug Lenat) sunt un exemplu de IA „scruffy”, deoarece trebuie construită manual, concept cu concept.[154]

Pe bază de cunoștințe

Când au devenit disponibile computerele cu memorii mari pe la 1970, cercetătorii din toate cele trei tradiții au început să introducă cunoștințe în aplicațiile IA.[155] Această „revoluție a cunoștințelor” a dus la dezvoltarea și desfășurarea sistemelor expert (introduse de Edward Feigenbaum), prima formă cu adevărat de succes a software-ului cu IA.[38] O componentă cheie a arhitecturii de sistem pentru toate sistemele expert este baza de cunoștințe care stochează fapte și reguli care ilustrează IA.[156] Revoluția cunoștințelor a fost determinată și de realizarea faptului că o mulțime de cunoștințe ar fi necesare multor aplicații cu IA simple.

Subsimbolice

Până în anii 1980, progresul în domeniul IA simbolic părea să se blocheze și mulți credeau că sistemele simbolice nu ar putea niciodată să imite toate procesele cunoașterii umane, în special percepția, robotica, învățarea și recunoașterea șabloanelor. Mai mulți cercetători au început să privească spre abordările „subsimbolice” asupra problemelor specifice IA.[17] Metodele sub-simbolice reușesc să abordeze inteligența fără reprezentări specifice ale cunoașterii.

Inteligență întruchipată

Aceasta include IA întruchipată, situată, bazată pe comportament și nouvelle. Cercetătorii din domeniul asociat al roboticii, cum ar fi Rodney Brooks, respingeau IA simbolică și s-au concentrat asupra problemelor fundamentale de inginerie care ar permite roboților să se miște și să supraviețuiască.[157] Munca lor a reînviat punctul de vedere nesimbolic al cercetătorilor timpurii ai ciberneticii din anii 1950 și a reintrodus utilizarea teoriei controlului în IA. Acest lucru a coincis cu dezvoltarea tezei gândirii încorporate în domeniul conex al științei cognitive: ideea că aspecte ale corpului (cum ar fi mișcarea, percepția și vizualizarea) sunt necesare unei inteligențe superioare.

În cadrul roboticii de dezvoltare, se elaborează abordări de învățare pentru dezvoltare pentru a permite roboților să acumuleze repertorii de abilități noi prin auto-explorare autonomă, interacțiune socială cu profesori umani și utilizarea mecanismelor de orientare (învățare activă, maturizare, sinergii motorii etc.).[158][159][160][161]

Inteligență computațională și soft computing

Interesul pentru rețelele neurale și „conexionism” a fost relansat de David Rumelhart și alții la mijlocul anilor 1980.[162] Rețelele neurale artificiale sunt un exemplu de soft computing — acestea sunt soluții la probleme care nu pot fi rezolvate cu o certitudine logică completă și unde o soluție aproximativă este adesea suficientă. Alte abordări de soft computing în IA sunt sistemele fuzzy, calculul evolutiv și multe instrumente statistice. Aplicarea soft computingului în IA este studiată colectiv de disciplina emergentă a inteligenței computaționale. [163]

Învățarea statistică

O mare parte din GOFAI tradiționale s-au împotmolit în mici modificări ad-hoc aduse calculului simbolic care a lucrat pe propriile modele, dar nu s-a generalizat la rezultatele din lumea reală. Cu toate acestea, în jurul anilor 1990, cercetătorii din IA au adoptat instrumente matematice sofisticate, cum ar fi modelele Markov ascunse (HMM), teoria informațiilor și teoria bayesiană a deciziei pentru a compara sau unifica arhitecturile concurente. Limbajul matematic comun a permis un nivel ridicat de colaborare cu mai multe domenii (cum ar fi matematica, economia sau cercetarea operațională).[d] În comparație cu GOFAI, noi tehnici de "învățare statistică", cum ar fi rețelele neurale și HMM, au obținut niveluri mai înalte de precizie în multe domenii practice, cum ar fi data mining, fără a se obține neapărat înțelegerea semantică a seturilor de date. Succesele sporite cu datele din lumea reală au condus la accentul sporit pe compararea diferitelor abordări ale datelor de testare partajate, pentru a vedea care dintre metodele au cea mai bună performanță într-un context mai larg decât cel oferit de modelele idiosincratice; cercetarea AI a devenit tot mai științifică. În prezent, rezultatele experimentelor sunt adesea măsurabile riguros și uneori (cu dificultate) pot fi reproduse.[39][164] Diferitele tehnici de învățare statistică au limite diferite; de exemplu, HMM de bază nu poate modela combinațiile posibile infinite ale limbajului natural.[165] Criticii remarcă faptul că trecerea de la GOFAI la învățarea statistică implică adesea, de asemenea, abandonarea IA explicabile. În cercetarea IGA, unii cercetători avertizează împotriva dependenței excesive de învățarea statistică și susțin că cercetarea continuă a GOFAI va fi totuși necesară pentru a obține informații generale.[166][167]

Integrarea abordărilor

Paradigma agentului inteligent
Un agent inteligent este un sistem care își percepe mediul și efectuează acțiuni care îi maximizează șansele de succes. Cei mai simpli agenți inteligenți sunt programe care rezolvă probleme specifice. Printre agenții mai complicați se numără ființele umane și organizațiile de ființe umane (cum ar fi firmele). Paradigma permite cercetătorilor să compare direct sau chiar să combine diferite abordări pentru problemele izolate, întrebând care agent este cel mai bun la maximizarea unei „funcții de țintă” date. Un agent care rezolvă o problemă specifică poate folosi orice abordare care funcționează — unii agenți sunt simbolici și logici, unii sunt rețele neurale artificiale subsimbolice și alții pot folosi noi abordări. Paradigma oferă, de asemenea, cercetătorilor un limbaj comun pentru a comunica cu alte domenii — cum ar fi teoria deciziei și economia — care utilizează și ele conceptul agenților abstracți. Construirea unui agent complet necesită ca cercetătorii să abordeze probleme realiste de integrare; de exemplu, deoarece sistemele senzoriale oferă informații nesigure despre mediu, sistemele de planificare trebuie să poată funcționa în prezența incertitudinii. Paradigma agentului inteligent a devenit pe scară largă acceptată în anii 1990.[168]
Arhitecturi de agent și arhitecturi cognitive
Cercetătorii au creat sisteme pentru a construi sisteme inteligente din interacțiunea agenților inteligenți într-un sistem multi-agent.[169] Un sistem ierarhic de control oferă o punte între IA subsimbolică la nivelurile sale reactive, cele mai scăzute, și IA simbolică tradițională de la cele mai înalte niveluri, unde constrângerile de timp relaxate permit planificarea și modelarea lumii.[170] Unele arhitecturi cognitive sunt personalizate pentru a rezolva o problemă îngustă; altele, cum ar fi Soar, sunt concepute pentru a imita cogniția umană și pentru a oferi o perspectivă asupra inteligenței generale. Extensiile moderne ale Soar sunt sisteme inteligente hibride care includ atât componente simbolice, cât și sub-simbolice.[171][172]

Instrumente

IA a dezvoltat un număr mare de instrumente pentru a rezolva cele mai dificile probleme din domeniul informaticii. Câteva dintre cele mai generale dintre aceste metode sunt discutate mai jos.

Căutarea și optimizarea

Multe probleme din IA pot fi rezolvate teoretic prin căutarea inteligentă între multe soluții posibile: [173] Raționamentul poate fi redus la efectuarea unei căutări. De exemplu, demonstrația logică poate fi privită drept căutarea unei căi care conduce de la ipoteză la concluzie, în care fiecare pas este aplicarea unei reguli de inferență.[174] Algoritmii de planificare caută prin arbori de obiective și subobiective, încercând să găsească o cale către un obiectiv țintă, un proces numit analiză mijloc-scop. [175] Algoritmii de robotică pentru mișcarea membrelor și pentru apucarea obiectelor utilizează căutări locale în spațiul de configurare.[119] Mulți algoritmi de învățare utilizează algoritmi de căutare bazați pe optimizare.

Căutările exhaustive simple[176] sunt rareori suficiente pentru majoritatea problemelor din lumea reală: dimensiunea spațiului de căutare (numărul de locuri de căutare) crește rapid la cifre astronomice. Rezultatul este o căutare care este prea lentă sau nu se termină niciodată. Soluția, pentru multe probleme, este de a folosi „euristica” sau „regula aproximativă” care prioritizează opțiunile în favoarea celor care au mai multe șanse de a atinge un obiectiv și de a face acest lucru într-un număr mai mic de pași. În unele metodologii de căutare, euristica poate servi, de asemenea, la eliminarea în totalitate a unor alegeri care sunt puțin probabil să conducă la un scop (numită „tăierea ramurilor arborelui de căutare”). Euristica furnizează programului o „estimare a căii celei mai bune” spre care ar putea exista soluția.[177] Euristica limitează căutarea soluțiilor într-un eșantion de dimensiune mai mică.[120]

Un tip foarte diferit de căutare a ieșit în evidență în anii 1990, bazat pe teoria matematică a optimizării. Pentru multe probleme, este posibil să se înceapă căutarea cu o anumită formă de aproximare și apoi să se rafineze această aproximare incremental până când nu mai pot fi făcute îmbunătățiri. Acești algoritmi pot fi vizualizați ca escaladă orbească: se începe căutarea într-un punct aleatoriu din peisaj și apoi, prin salturi sau pași, se continuă mișcarea în sus, până se ajunge în vârf. Alți algoritmi de optimizare sunt simulated annealing, beam search și optimizarea aleatorie.[178]

Un roi de particule care caută minimul global

Calculul evolutiv utilizează o formă de căutare cu optimizare. De exemplu, el poate începe cu o populație de organisme (presupunerile) și apoi le permite să sufere mutații și să se recombine, selectând doar cei mai potriviți indivizi pentru a supraviețui fiecărei generații (rafinarea presupunerilor). Printre algoritmii evolutivi clasici se numără algoritmii genetici, programarea genetică de expresie și programarea genetică.[179] Alternativ, procesele de căutare distribuite pot fi coordonate prin algoritmi de inteligență a roiului. Doi algoritmi populari de rotire folosiți în căutare sunt optimizarea roiurilor de particule (inspirată de roirea păsărilor) și optimizarea coloniilor de furnici (inspirată de urmele furnicilor).[180][181]

Logică

Logica[182] este folosită pentru reprezentarea cunoștințelor și rezolvarea problemelor, dar poate fi aplicată și altor probleme. De exemplu, algoritmul satplan utilizează logica pentru planificare[183] și programarea logică inductivă este o metodă de învățare.[184]

În cercetarea IA se folosesc mai multe forme diferite de logică. Logica propozițională[185] implică funcții de adevăr, cum ar fi „sau” și „non”. Logica de ordinul întâi[186] adaugă cuantificatori și predicate și poate exprima fapte despre obiecte, proprietățile lor și relațiile dintre ele. Teoria mulțimilor vagi atribuie un „grad de adevăr” (între 0 și 1) unor afirmații vagi precum „Alice este bătrână” (sau „bogată”, „înaltă” sau „înfometată”) care sunt prea imprecise din punct de vedere lingvistic pentru a fi complet adevărate sau complet false. Logica fuzzy este folosită cu succes în sistemele de control pentru a permite experților să contribuie cu reguli vagi precum „dacă ești aproape de stația de destinație și te miști rapid, crește presiunea de frânare a trenului”; aceste reguli vagi pot fi rafinate numeric în cadrul sistemului. Logica fuzzy nu reușește să scaleze bine în bazele de cunoștințe; mulți cercetători de IA sunt reticenți față de validitatea inferențelor de logică fuzzy.[e][188][189]

Logicile implicite, cele nemonotone și circumscrierea[94] sunt forme de logică concepute pentru a ajuta la raționamentul implicit și la problema calificării. Mai multe extensii de logică au fost concepute pentru a gestiona domenii specifice ale cunoașterii, cum ar fi: logica descriptivă;[82] calculul de situație, calculul de evenimente și calculul fluent (pentru reprezentarea evenimentelor și a timpului);[83] calculul cauzal;[84] calculul de credință;[190] și logicile modale.[85]

În ansamblu, logica simbolică calitativă este fragilă și scalează rău în prezența zgomotului sau a altei incertitudini. Excepțiile de la reguli sunt numeroase și este dificil pentru sistemele logice să funcționeze în prezența unor reguli contradictorii.[191][192]

Metode probabilistice pentru raționament incert

Clustering prin expectation-maximization al datelor de erupție a lui Old Faithful pornește de la o presupunere aleatorie, dar apoi converge cu succes într-o clusterizare precisă a celor două moduri fizice distincte de erupție.

Multe probleme din IA (de raționament, planificare, învățare, percepție și robotică) necesită ca agentul să funcționeze cu informații incomplete sau nesigure. Cercetătorii de IA au conceput o serie de instrumente puternice pentru a rezolva aceste probleme utilizând metode din teoria probabilităților și din economie. [193]

Rețelele bayesiene[194] sunt un instrument foarte general, care poate fi folosit pentru un număr mare de probleme: de raționament (folosind algoritmul inferențelor bayesiane),[195] de învățare (folosind algoritmul EM),[f][197] planificare (prin utilizarea rețelelor decizionale) [198] și percepție (utilizând rețele bayesiene dinamice).[199] Se pot utiliza și algoritmi probabilistici pentru filtrarea, predicția, rafinarea și găsirea de explicații pentru fluxurile de date, ajutând sistemele de percepție să analizeze procesele care apar în timp (de exemplu, modelele Markov ascunse sau filtrele Kalman).[199] În comparație cu logica simbolică, inferența bayesiană formală este costisitoare din punct de vedere computațional. Pentru ca inferența să fie tractabilă, majoritatea observațiilor trebuie să fie dependente condiționat una de cealaltă. Graficele complexe cu „bucle” (cicluri neorientate) pot necesita o metodă sofisticată, cum ar fi metoda Monte Carlo cu lanțuri Markov , care răspândește un ansamblu de drumuri aleatoare prin întreaga rețea bayesiană și încearcă să conveargă la o evaluare a probabilităților condiționate. Rețelele bayesiene sunt utilizate pe Xbox Live pentru a evalua și a potrivi jucătorii între ei; victoriile și înfrângerile sunt „dovezi” despre cât de bun este un jucător. AdSense utilizează o rețea bayesiană cu peste 300 de milioane de muchii pentru a afla ce reclame să afișeze.[191]

Un concept-cheie, provenit din știința economiei, este cel de „utilitate”: o măsură a cât de valoros este ceva pentru un agent inteligent. S-au dezvoltat instrumente matematice precise care analizează modul în care un agent poate să facă alegeri și să planifice, utilizând teoria deciziei, analiza deciziei,[200] și teoria valorii informației.[100] Aceste instrumente includ modele, cum ar fi procesele de decizie Markov,[201] rețele dinamice de decizie,[199] teoria jocurilor și designul mecanismelor economice.[202]

Clasificatori și metode statistice de învățare

Cele mai simple aplicații de IA pot fi împărțite în două tipuri: clasificatori („dacă sclipește, atunci diamant”) și controlori („dacă lucios, atunci ridică”). Controlorii mai și clasifică însă condițiile înainte de a infera acțiuni și, prin urmare, clasificarea formează o parte centrală a multor sisteme cu IA. Clasificatorii sunt funcții care utilizează aplicarea șabloanelor pentru a determina potrivirea cea mai apropiată. Ele pot fi reglate conform exemplelor, făcându-le foarte atractive pentru utilizarea în IA. Aceste exemple sunt cunoscute ca observații sau șabloane. În învățarea supravegheată, fiecare model aparține unei anumite clase predefinite. O clasă poate fi văzută ca o decizie care trebuie luată. Toate observațiile combinate cu etichetele lor de clasă sunt cunoscute ca un set de date. Atunci când se primește o nouă observație, această observație este clasificată pe baza experienței anterioare.[203]

Un clasificator poate fi instruit în diferite moduri; există multe abordări statistice și de învățare automată. Arborele de decizie[204] este probabil cel mai utilizat algoritm de învățare automată.[205] Alți clasificatori utilizați pe scară largă sunt rețelele neurale,[206] algoritmul k-NN,[g][208] metodele kernel, cum ar fi support-vector machine (SVM),[h][210] modelul gaussian de amestec[211] și clasificatorul Bayes naiv.[i][213] Performanța clasificatorului depinde în mare măsură de caracteristicile datelor care urmează a fi clasificate, cum ar fi dimensiunea setului de date, distribuția eșantioanelor pe clase, dimensionalitatea și nivelul zgomotului. Clasificatorii bazați pe modele funcționează bine dacă modelul asumat se potrivește extrem de bine pe datele reale. În caz contrar, dacă nu există un model compatibil și dacă singura preocupare este acuratețea (și nu viteza sau scalabilitatea), se știe că clasificatorii discriminatori (în special SVM) tind să fie mai exacți decât clasificatorii bazați pe model, cum ar fi „Bayes naiv” pe cele mai multe seturi de date din practică.[214][215]

Rețele neurale artificiale

O rețea neurală este un grup de noduri interconectate, asemănătoare cu vasta rețea de neuroni din creierul uman.

Rețelele neurale s-au inspirat din arhitectura neuronilor din creierul uman. Un „neuron” simplu N acceptă intrări de la mai mulți neuroni, fiecare dintre ei, atunci când este activat, aruncă un „vot” ponderat pentru sau împotriva activării neuronului N. Învățarea necesită un algoritm de ajustare a acestor ponderi pe baza datelor de antrenament; un algoritm simplu (pe principiul „conectează ce se declanșează împreună”) este de a crește ponderea conexiunii între doi neuroni conectați atunci când activarea unuia declanșează activarea cu succes a altuia. Rețeaua formează „concepte” care sunt distribuite într-o subrețea de neuroni partajați[j] care tind să se activeze împreună; de exemplu, un concept care înseamnă „picior” ar putea fi cuplat cu o subrețea care înseamnă „picior”, care include sunetul pentru „picior”. Neuronii au un spectru continuu de activare; mai mult, ei pot procesa intrările neliniar, în loc să cântărească voturi simple. Rețelele neurale moderne pot învăța atât funcții continue, cât și, surprinzător, operații logice digitale. Rețelele neuronale au avut succese la prezicerea evoluției pieței bursiere și (în 1995) un autovehicul care se conducea în mare parte automat.[k][216] În anii 2010, progresele înregistrate în rețelele neurale ce utilizează învățarea în profunzime au propulsat domeniul IA în conștiința publică, și au contribuit la o creștere enormă a investițiilor corporative în IA; de exemplu, fuziunile și achizițiile de companii în domeniul IA în 2017 erau de peste 25 de ori mai substanțiale decât în 2015.[217][218]

Studiul rețelelor neurale fără învățare[206] a început în deceniul anterior creării domeniului cercetării IA, în lucrarea lui Walter Pitts și a lui Warren McCullouch. Frank Rosenblatt a inventat perceptronul, o rețea de învățare cu un singur strat, similar cu vechiul concept de regresie liniară . Printre pionierii timpurii ale domeniului se numără și Alexei Grigorevici Ivahnenko, Teuvo Kohonen, Stephen Grossberg, Kunihiko Fukushima, Christoph von der Malsburg, David Willshaw, Shun-Ichi Amari, Bernard Widrow, John Hopfield, Eduardo R. Caianiello și alții.

Principalele categorii de rețele sunt rețelele neurale feedforward sau aciclice (unde semnalul trece într-o singură direcție) și rețele neurale recurente (care permit feedback și memorii pe termen scurt ale evenimentelor de intrare anterioare). Printre cele mai populare rețele feedforward sunt perceptronii, perceptronii multi-strat și rețelele cu bază radială.[219] Rețelele neurale pot fi aplicate problemei controlului inteligent (pentru robotică) sau învățării, folosind tehnici precum învățarea Hebbian („conectează ce se declanșează împreună”), GMDH sau învățare competitivă.[220]

Astăzi, rețelele neurale sunt adesea antrenate prin algoritmul backpropagation, care există de pe la 1970 ca invers al diferențierii automate publicate de Seppo Linnainmaa[221][222] și a fost introdus în rețelele neurale de Paul Werbos.[223][224][225]

Memoria temporală ierarhică este o abordare care modelează unele dintre proprietățile structurale și algoritmice ale neocortexului.[226]

Pe scurt, majoritatea rețelelor neurale utilizează o anumită formă de coborâre de gradient pe o topologie neurală creată manual. Cu toate acestea, unele grupuri de cercetare, cum ar fi Uber, susțin că o neuroevoluție simplă, în care prin mutație se generează noi topologii și ponderi de rețele neurale, poate fi competitivă chiar și în fața unor abordări sofisticate cu coborâre de gradient. Un avantaj al neuroevoluției este acela că ar putea fi mai puțin predispusă la a fi blocată într-o „fundătură”.[227]

Rețele neurale cu feedforward

Învățarea profundă este orice rețea neurală artificială care poate învăța un lanț lung de legături de cauzalitate. De exemplu, o rețea cu feedforward cu șase straturi ascunse poate învăța un lanț de cauzalitate cu șapte legături (șase straturi ascunse + stratul de ieșire) și are o profunzime de „alocare a creditului” (CAP) de șapte. Multe sisteme cu învățare profundă trebuie să poată învăța lanțuri cu zece sau mai multe legături de cauzalitate.[228] Învățarea profundă a transformat multe subdomenii importante ale inteligenței artificiale, inclusiv vederea mașinilor, recunoașterea vorbirii, prelucrarea limbajului natural și altele.[229][230][228]

Conform unei vederi de ansamblu,[231] expresia Deep Learning a fost introdusă în comunitatea de învățare automată de către Rina Dechter în 1986[232] și a căpătat anvergură după ce Igor Aizenberg si colegii săi au introdus-o în rețelele neurale artificiale în 2000.[233] Primele rețele rețele funcționale de învățare profundă au fost publicate de Alexei Grigorevici Ivahnenko și VG Lapa în 1965.[234] Aceste rețele sunt antrenate strat cu strat. Articolul lui Ivahnenko din 1971 [235] descrie învățarea unui perceptron multistrat feedforward profund cu opt straturi, deja mult mai profund decât multe rețele ulterioare. În 2006, o publicație a lui Geoffrey Hinton și a lui Ruslan Salahutdinov a introdus un alt mod de pre-antrenare a unor rețele neurale feedforward multistrat, tratând fiecare strat pe rând ca pe o mașină Boltzmann restrânsă nesupravegheată, apoi folosind backpropagation supravegheat pentru reglajul fin.[236] Asemenea rețelelor neurale artificiale superficiale, rețelele neurale profunde pot modela relații neliniare complexe. În ultimii ani, progresele atât în domeniul algoritmilor de învățare automată, cât și în domeniul hardware-ului calculatoarelor au condus la metode mai eficiente de formare a rețelelor neurale profunde care conțin mai multe straturi de unități neliniare ascunse și un strat de ieșire foarte mare.[237]

Învățarea profundă utilizează adesea rețele neurale convoluționale (RNC), ale căror origini par a fi în Neocognitronul introdus de Kunihiko Fukushima în 1980.[238] În 1989, Yann LeCun și colegii săi au aplicat backpropagation pe o astfel de arhitectură. La începutul anilor 2000, într-o aplicație industrială, RNC prelucrau deja aproximativ 10% până la 20% din toate cecurile scrise în SUA.[239] Începând cu 2011, implementările rapide de RNC pe unitățile de procesare grafică au câștigat numeroase concursuri de recunoaștere vizuală a formelor.[228]

RNC cu 12 straturi convoluționale au fost utilizate împreună cu învățarea prin întărire de către „AlphaGo Lee” al lui Deepmind, programul care l-a învins pe campionul la go în 2016.[240]

Rețele neuronale profunde recurente

Încă de la început, învățarea profundă a fost aplicată și la învățarea de succesiuni cu rețele neurale recurente[241] care sunt, teoretic, Turing-complete[242] și pot executa programe arbitrare pentru a procesa secvențe arbitrare de intrări. Adâncimea unei RN recurent este nelimitată și depinde de lungimea secvenței sale de intrare; astfel, o RN recurentă este un exemplu de învățare profundă.[228] Rețelele neurale recurente pot fi antrenate prin coborâre de gradient [243] [244] [245] dar suferă de problema dispariției gradientului.[229][246] În 1992, s-a demonstrat că pre-antrenarea nesupravegheată a unui set de rețele neurale recurente poate accelera învățarea ulterioară supravegheată a problemelor secvențiale profunde.[247]

Numeroși cercetători folosesc acum variante ale unei RN recurente pentru învățare profundă numită Long-Short Term Memory (LSTM), publicată de Hochreiter & Schmidhuber în 1997.[248] LSTM este adesea antrenată prin Connectionist Temporal Classification (CTC).[249] La Google, Microsoft și Baidu, această abordare a revoluționat recunoașterea vorbirii.[250][251][252] De exemplu, în 2015, recunoașterea vocală de la Google a înregistrat un salt spectaculos de performanță de 49% cu ajutorul lui LSTM instruit de CTC, disponibil acum prin Google Voice către utilizatorii a miliarde de smartphone-uri.[253] Google a folosit de asemenea LSTM pentru a îmbunătăți traducerea automată,[254] modelarea limbajului[255] și prelucrarea lingvistică multilingvă.[256] LSTM combinat cu RNC a îmbunătățit și descrierea automată a imaginilor[257] și o multitudine de alte aplicații.

Evaluarea progresului

Ca și electricitatea sau motorul cu abur, IA este o tehnologie cu scop general. Nu există un consens despre cum să se caracterizeze sarcinile la care IA tinde să exceleze.[258] Deși proiecte precum AlphaZero au reușit să-și genereze propriile cunoștințe de la zero, multe alte proiecte de învățare automată necesită seturi de date de antrenament mari.[259][260] Cercetătorul Andrew Ng a sugerat, ca o „regulă aproximativă extrem de imperfectă”, că „aproape orice poate fi făcut de un om cu mai puțin de o secundă de gândire mentală, poate să fie, acum sau în viitorul apropiat, automatizat prin utilizarea IA”.[261] Paradoxul lui Moravec sugerează că IA rămâne în urma omului la multe sarcini pentru a căror bună îndeplinire creierul uman a evoluat anume.[125]

Jocurile oferă un punct de referință foarte mediatizat pentru evaluarea ratei progresului. AlphaGo a adus, în preajma lui 2016, sfârșitul epocii testelor cu jocuri de masă. Jocurile de cunoștințe imperfecte oferă noi provocări pentru IA în domeniul teoriei jocurilor.[262][263] E-sporturile, cum ar fi StarCraft, continuă să furnizeze repere publice suplimentare.[264][265] Există numeroase concursuri și premii, cum ar fi Imagenet Challenge, pentru promovarea cercetării în domeniul inteligenței artificiale. Cele mai comune domenii de concurs sunt inteligența automată generală, comportamentul conversațional, data mining, mașini robotizate și fotbal jucat de roboți, pe lângă jocuri convenționale.[266]

„Jocul imitației” (o interpretare a testului Turing din 1950 care evaluează dacă un calculator poate imita un om) este în prezent considerat prea exploatabil pentru a fi un test semnificativ.[267] Un derivat al testului Turing este Testul Turing Public Complet Automatizat pentru Deosebirea Omului de Calculator (Completely Automated Public Turing test to tell Computers and Humans Apart, CAPTCHA). După cum sugerează și numele, acest lucru ajută la determinarea dacă utilizator este o persoană reală sau un computer care simulează un om. Spre deosebire de testul Turing standard, care este administrat de către un om unei mașini, CAPTCHA este administrat de o mașină unui om. Un computer cere unui utilizator să completeze un test simplu, apoi generează o notă pentru acel test. Computerele nu reușesc să rezolve problemele, deci soluțiile corecte sunt considerate a fi rezultatul faptului că testul a fost efectuat de un om. Un tip comun de CAPTCHA este un test care necesită identificarea unor litere, numere sau simboluri distorsionate care apar într-o imagine care ar fi indescifrabilă pentru un calculator.[268]

Testele de „inteligență universale” propuse au scopul de a compara cât de bine se comportă mașinile, oamenii și chiar animalele la seturi de probleme care sunt cât mai generice cu putință. La extrem, suita de test poate conține orice problemă posibilă, ponderată de complexitatea Kolmogorov; din păcate, aceste seturi de probleme tind să fie dominate de exerciții slabe de aplicare a șabloanelor, la care o IA acordată corespunzător poate depăși cu ușurință performanța umană.[269] [270]

Aplicații

Un asistent online automat oferind servicii clienților pe o pagină web — una dintre multele aplicații foarte primitive ale inteligenței artificiale

IA este relevantă pentru orice sarcină intelectuală.[271] Tehnicile moderne de inteligență artificială sunt omniprezente și sunt prea numeroase pentru a fi prezentate exhaustiv aici. Frecvent, atunci când o tehnică ajunge în uz general, ea nu mai este considerată a fi inteligență artificială; acest fenomen este denimit efectul IA.[272]

Printre exemplele de IA foarte vizibile se numără vehiculele autonome (cum ar fi dronele și autoturismele conduse automat), diagnosticul medical, unele creații artistice (cum ar fi poezia), demonstrarea unor teoreme matematice, jocurile (cum ar fi șahul sau go), motoarele de căutare (cum ar fi Google Search), asistenți online (cum ar fi Siri), recunoașterea imaginilor în fotografii, filtrarea spamului, prezicerea întârzierilor zborurilor,[273] prezicerea deciziilor judiciare[274] și direcționarea reclamelor online.[271][275][276]

După ce site-urile de social media au depășit televiziunea ca sursă de știri pentru tineri, organizațiile de știri se bazează tot mai mult pe platformele de social media pentru generarea de distribuție,[277] editorii majori folosesc acum tehnologia inteligenței artificiale pentru a publica mai eficient articole și de a genera volume mai mari de trafic.[278]

Sănătate

Un braț chirurgical al Sistemului Chirurghical Da Vinci

IA se aplică în problema de cost ridicat a dozajului — unde unele rezultate sugerau că IA ar putea economisi 16 miliarde de dolari. În 2016, un studiu de pionierat efectuat în California a constatat că o formulă matematică dezvoltată cu ajutorul IA a determinat în mod corect doza exactă de medicamente imunosupresoare care să fie administrată pacienților implicați în transplante de organe. [279]

Radiografie a unei mâini, cu calcul automat al vârstei oaselor efectuat de un software de calculator

Inteligența artificială pătrunde în industria sănătății ca asistent al medicilor. Potrivit Bloomberg Technology, Microsoft a dezvoltat IA pentru a ajuta medicii să găsească tratamentele corecte pentru cancer.[280] Există o cantitate substanțială de cercetare și un număr mare de medicamente dezvoltate pentru cancer. În detaliu, există peste 800 de medicamente și vaccinuri pentru tratarea cancerului. Acest lucru afectează negativ medicii, deoarece există prea multe opțiuni din care să aleagă, făcând mai dificilă alegerea medicamentelor potrivite pentru pacienți. Microsoft lucrează la un proiect pentru a dezvolta o mașină numită „Hanover”. Obiectivul său este de a memora toate lucrările necesare din domeniul oncologiei și de a ajuta să se prevadă care combinații de medicamente vor fi cele mai eficiente pentru fiecare pacient. Un proiect la care se lucrează în prezent este combaterea leucemiei mieloide, un cancer mortal al cărui tratament nu s-a îmbunătățit de decenii. Un alt studiu a arătat că inteligența artificială este la fel de bună ca medicii instruiți în identificarea cancerelor de piele.[281] Un alt proiect utilizează inteligența artificială pentru a încerca și monitoriza mai mulți pacienți cu risc crescut și acest lucru se face prin punerea de numeroase întrebări fiecărui pacient, pe baza datelor obținute din interacțiunile medicului uman cu pacientul.[282] S-a realizat un studiu cu învățare prin transfer, mașina a efectuat un diagnostic similar unui oftalmolog bine pregătit și ar putea genera o decizie în 30 de secunde dacă pacientul trebuie sau nu să fie trimis la tratament, cu o precizie de peste 95%.[283]

Potrivit CNN, un studiu efectuat de chirurgi de la Centrul Medical National pentru Copii din Washington a demonstrat cu succes o interventie chirurgicală efectuată de un robot autonom. Echipa a supravegheat robotul în timp ce el efectua o intervenție chirurgicală pe țesuturi moi, reparând intestinul rupt al unui porc într-o intervenție chirurgicală deschisă cu o reușită mai bună decât a unui chirurg uman, după afirmațiile echipei.[284] IBM și-a creat propriul calculator de inteligență artificială, IBM Watson, care a depășit inteligența umană (la anumite nivele). Watson nu numai că a câștigat la show-ul de joc Jeopardy! împotriva foștilor campioni[285] dar a fost declarat erou după ce a diagnosticat cu succes o femeie care suferea de leucemie.[286]

Industria auto

Progresele din IA au contribuit la creșterea industriei de automobile prin crearea și evoluția autovehiculelor cu autovehicule. În 2016, existau peste 30 de companii care utilizau IA la crearea mașinilor fără șofer. Câteva companii implicate în IA sunt Tesla, Google și Apple.[287]

Multe componente contribuie la funcționarea autoturismelor. Aceste vehicule incorporează sisteme cum ar fi frânarea, schimbarea benzii de rulare, prevenirea coliziunilor, navigarea și cartografierea. Împreună, aceste sisteme, precum și computerele de înaltă performanță, sunt integrate într-un singur vehicul complex.[288]

Evoluțiile recente în domeniul autovehiculelor autonome au făcut posibilă inovația autoturismelor conduse automat, deși acestea se află încă în faza de testare. Guvernul britanic a adoptat legislație pentru începerea testării unor mici flote de autoturisme fără șofer în 2018.[289] Plutoanele de camioane automate sunt o flotă de autocamioane care conduc în urma unui camion condus de un om, deci plutonul de camioane nu este în întregime autonom. Între timp, Daimler, o companie germană de automobile, testează Freightliner Inspiration, o mașină semi-autonomă de fi folosit numai pe șosele interurbane.[290]

Un factor principal care influențează abilitatea unui automobil de a funcționa fără conducător auto este cartografierea. În general, vehiculul ar putea fi pre-programat cu o hartă a zonei prin care conduce. Această hartă ar include date privind aproximarea luminii stradale și a înălțimii bordurilor pentru ca vehiculul să fie conștient de împrejurimile sale. Cu toate acestea, Google a lucrat la un algoritm al cărui scop este de a elimina nevoia de hărți preprogramate și a creat, în schimb, un dispozitiv care să se poată adapta la o varietate de împrejurimi noi.[291] Unele autovehicule automate nu sunt echipate cu volane sau pedale de frână, așa că s-au concentrat pe cercetări asupra creării unui algoritm capabil să mențină un mediu sigur pentru pasagerii vehiculului prin conștientizarea condițiilor de condus și de viteză.[292]

Un alt factor care influențează capacitatea unui automobil fără șofer este siguranța pasagerului. Pentru a face un automobil fără șofer, inginerii trebuie să-l programeze pentru a gestiona situațiile cu risc ridicat. Aceste situații ar putea include o ciocnire frontală cu pietoni. Scopul principal al mașinii trebuie să fie acela de a lua o decizie care să evite lovirea pietonilor și salvarea pasagerilor în mașină. Dar există o posibilitate ca mașina să aibă nevoie de o decizie care ar pune pe cineva în pericol. Cu alte cuvinte, mașina ar trebui să decidă să salveze pietonii sau pasagerii.[293] Programarea mașinii în aceste situații este esențială pentru un automobil fără conducător auto.

Finanțe și economie

Instituțiile financiare folosesc de mult timp sistemele de rețele neurale artificiale pentru a detecta debite sau cereri de debitare extraordinare, marcându-le pentru a fi cercetate de oameni. Utilizarea IA în sectorul bancar datează din 1987, când Security Pacific National Bank din SUA a înființat un Task force pentru Prevenirea Fraudelor cu scopul de a contracara utilizarea neautorizată a cardurilor de debit. Programe precum Kasisto și Moneystream utilizează IA în serviciile financiare.

Băncile utilizează astăzi sisteme cu inteligență artificială pentru a organiza operațiuni, a menține evidența contabilă, a investi în acțiuni și a gestiona proprietățile. IA poate reacționa la schimbări bruște și în timpul nopții sau în zilele nelucrătoare.[294] În august 2001, roboții au învins oamenii într-o competiție simulată de tranzacționare financiară.[295] IA a redus și frauda și criminalitatea financiară prin monitorizarea modelelor comportamentale ale utilizatorilor pentru orice schimbări anormale sau anomalii.[296]

Utilizarea mașinilor cu IA pe piață în aplicații precum comerțul online și luarea deciziilor a schimbat teoriile economice majore.[297] De exemplu, platformele de cumpărare și vânzare bazate pe IA au schimbat legea cererii și ofertei prin faptul că acum este posibilă estimarea cu ușurință a unor curbe individualizate de cerere și ofertă și, prin urmare, stabilirea prețurilor individualizate. În plus, mașinile cu IA reduc asimetria informației pe piață, făcând astfel piețele mai eficiente, și reducând volumul tranzacțiilor. Printre alte teorii în care IA a avut impact se numără alegerea rațională, așteptările raționale, teoria jocurilor, punctul de cotitură Lewis, optimizarea portofoliului și gândirea contrafactuală.

Jocuri video

În jocurile video, inteligența artificială este utilizată în mod obișnuit pentru a genera un comportament dinamic la personajele nejucător (NPC). În plus, tehnici IA bine cunoscute sunt utilizate în mod curent pentru găsirea de drumuri. Unii cercetători consideră că NPC cu IA în jocuri sunt o „problemă rezolvată” pentru majoritatea cazurilor din producție. Printre jocurile cu IA mai atipice se numără directorul IA din Left 4 Dead (2008) și antrenamentul neuroevoluționar al plutoanelor în Supreme Commander 2 (2010).[298][299]

Armată

Cheltuielile militare mondiale anuale pe robotică au crescut de la 5,1 miliarde de dolari în 2010 la 7,5 miliarde de dolari în 2015.[300][301] Dronele militare capabile de acțiune autonomă sunt considerate pe scară largă o dotare utilă. Mulți cercetători în domeniul inteligenței artificiale încearcă să se distanțeze de aplicațiile militare ale AI. [302]

Audit

Pentru auditul contabilității financiare, IA face posibil auditul continuu. Instrumentele cu IA pot analiza pe loc multe seturi de informații diferite. Beneficiul potențial este reducerea riscului general de audit, creșterea nivelului de asigurare și reducerea duratei auditului.[303]

Publicitate

Se poate utiliza IA pentru a anticipa sau generaliza comportamentul clienților din amprenta lor digitală, pentru a-i viza cu ajutorul unor promoții personalizate sau pentru a construi în mod automat profiluri de client.[304] Un caz documentat arată că companiile de jocuri de noroc online folosesc IA pentru a îmbunătăți direcționarea reclamelor către clienți.[305]

Mai mult, aplicarea modelelor de IA de calcul al personalității poate contribui la reducerea costurilor campaniilor publicitare prin adăugarea de direcționare psihologică la direcționarea , sociodemografică sau comportamentală.[306]

Artă

Inteligența artificială a inspirat numeroase aplicații creative, inclusiv utilizarea sa pentru a produce arte vizuale. Expoziția „Mașini gânditoare: artă și design în era calculatoarelor, 1959-1989” de la MoMA[307] oferă o imagine de ansamblu asupra aplicațiilor istorice ale IA în artă, arhitectură și design. Printre expozițiile recente care prezintă utilizarea de IA pentru a produce artă se numără acțiunile și licitațiile de binefacere sponsorizate de Google de la Fundația Grey Area din San Francisco, unde artiștii au experimentat cu algoritmul deepdream, [308] și expoziția „Unhuman: Art in Age of AI”, care a avut loc în Los Angeles și Frankfurt, în toamna anului 2017.[309][310] În primăvara anului 2018, Association for Computing Machinery a dedicat un număr special al revistei sale subiectului computerelor și artei, evidențiind rolul învățării automate în artă.[311]

Filosofie și etică

Există trei întrebări filosofice legate de IA:

  1. Este posibilă inteligența artificială generală? Poate o mașină să rezolve orice problemă pe care o ființă umană o poate rezolva folosind inteligența? Sau există limite dure pentru ceea ce poate realiza o mașină?
  2. Sunt mașinile inteligente periculoase? Cum putem să ne asigurăm că mașinile se comportă etic și că sunt utilizate în mod etic?
  3. Poate o mașină să aibă minte, conștiință și stări mentale la fel cum au oamenii? Poate o mașină să fie conștientă de sine și, prin urmare, să merite anumite drepturi? Poate o mașină să provoace rău intenționat?

Limitele inteligenței generale artificiale

Poate o mașină să fie inteligentă? Poate „gândi”?

Convenția „politicoasă” a lui Alan Turing,
Nu trebuie să decidem dacă o mașină poate „gândi”; trebuie doar să decidem dacă o mașină poate funcționa inteligent ca o ființă umană. Această abordare a problemelor filosofice asociate cu inteligența artificială formează baza testului Turing.[312]
Propunerea de la Dartmouth
„Fiecare aspect al învățării sau orice altă caracteristică a inteligenței poate fi atât de precis descris încât poate fi făcută o mașină pentru a-l simula”. Această presupunere a fost tipărită în propunerea pentru Conferința de la Dartmouth din 1956 și reprezintă poziția celor mai mulți cercetători din IA.[313]
Ipoteza sistemului de simboluri fizice a lui Newell și Simon
„Un sistem de simboluri fizice are mijloacele necesare și suficiente pentru acțiune inteligentă generală”. Newell și Simon susțin că inteligența constă în operațiuni formale pe simboluri. [314] Hubert Dreyfus argumenta că, dimpotrivă, expertiza umană depinde mai degrabă de instinctul inconștient decât de manipularea simbolică a conștientului și pe un „simț” al situației, mai degrabă decât o cunoaștere simbolică explicită.[315] [316]
Argumentele Gödeliene
Gödel însuși,[317] John Lucas (în 1961) și Roger Penrose (într-un argument mai detaliat începând cu 1989) au susținut cu argumente extrem de tehnice că matematicienii umani pot vedea constant adevărul propriilor lor „afirmații Gödel” și, prin urmare, că au abilități de calcul dincolo de mașinile Turing mecanice.[318] Cu toate acestea, consensul modern în comunitatea științifică și matematică este că aceste „argumente Gödeliene” nu sunt valide.[319][320][321]
Argumentul creierului artificial
Creierul poate fi simulat de mașini și, deoarece creierul este inteligent, creierul simulat trebuie să fie și el inteligent; astfel mașinile pot fi inteligente. Hans Moravec, Ray Kurzweil și alții au susținut că este posibil din punct de vedere tehnologic să se copieze creierul direct în hardware și software, și ca o astfel de simulare să fie în esență identică cu originalul.[143]
Efectul AI
Mașinile sunt deja inteligente, dar observatorii nu își dau seama. Când Deep Blue l-a învins pe Garry Kasparov la șah, mașina se purta inteligent. Cu toate acestea, privitorii neagă de obicei comportamentul unui program cu inteligență artificială, argumentând că nu este în definitiv inteligență „reală”; astfel, inteligența „reală” este orice comportament inteligent pe care oamenii îl pot avea, dar mașinile încă nu. Acesta este cunoscut sub numele de efectul IA: „IA este ceea ce nu s-a făcut încă”.

Probleme potențiale

Utilizarea pe scară largă a inteligenței artificiale ar putea avea consecințe neintenționate care pot fi periculoase sau nedorite. Oamenii de știință de la Institutul pentru Viitorul Vieții au descris, printre altele, câteva obiective de cercetare pe termen scurt pentru a vedea cum IA influențează economia, legile și etica implicate în IA și cum să minimizeze riscurile de securitate aduse de IA. Pe termen lung, oamenii de știință au propus să se continue să se optimizeze funcțiilor, reducând în același timp riscurile posibile de securitate care vin împreună cu noile tehnologii.[322]

Risc existențial

Fizicianul Stephen Hawking, fondatorul Microsoft Bill Gates, și fondatorul SpaceX Elon Musk și-au exprimat îngrijorarea cu privire la posibilitatea ca IA să poată evolua până la punctul în care oamenii nu ar putea să o mai controleze, iar Hawking a teoretizat că acest lucru ar putea „însemna sfârșitul rasei umane”.[323][324][325]

„{{{1}}}”

În cartea sa Superintelligence, Nick Bostrom oferă un argument că inteligența artificială va constitui o amenințare pentru omenire. El susține că, dacă alege acțiuni bazate pe atingerea unui anumit scoo ,o IA suficient de inteligentă,va prezenta un comportament convergent, respectiv vc acumularesurse și se va proteja de la oprire. Dacă scopuri IA nu reflectă cele ale umanității — de exemplu, o IA căreia i se cere să calculeze cât mai multe cifre din pi posibil — ar putea face rău umanității pentru a obține mai multe resurse sau pentru a preveni închiderea sa, doar pentru a-și atinge mai bine scopul.

Preocuparea față de riscul produs de inteligența artificială a dus la unele donații și investiții foarte cunoscute. Un grup de titani tehnologici proeminenți, printre care Peter Thiel, Amazon Web Services și Musk, au angajat 1 miliard de dolari pentru OpenAI, o companie nonprofit care vizează promovarea dezvoltării responsabile a IA.[326] Opinia experților din domeniul inteligenței artificiale este diversă, existând fracțiuni considerabile care nu sunt îngrijorate, dar și altele care sunt, de riscul unei IA capabile de supra-umanitate.[327] În ianuarie 2015, Elon Musk a donat zece milioane de dolari Institutului „Viitorul Vieții” pentru a finanța cercetarea privind înțelegerea procesului de decizie în IA. Scopul institutului este „să crească înțelepciunea cu care gestionăm" puterea tot mai mare a tehnologiei. Musk finanțează și companiile care dezvoltă inteligență artificială, cum ar fi Google DeepMind și Vicarious, doar pentru „a urmări ce se întâmplă cu inteligența artificială”.[328] El crede că „există un rezultat potențial periculos.”[329][330]

Pentru ca acest pericol să fie realizat, un IA ipotetic ar trebui să capete putere și inteligență superioară întregii umanități, posibilitate suficient de îndepărtată în viitor ca să nu merite cercetată.[331][332] Alte contraargumente se învârt în jurul ideii că oamenii sunt, fie intrinsec, fie convergent, valoroși din perspectiva unei inteligențe artificiale.[333]

Devalorizarea umanității

Joseph Weizenbaum scria că aplicațiile IA nu pot, prin definiție, să simuleze cu adevărat empatia umană reală și că utilizarea tehnologiei IA în domenii precum serviciul pentru clienți sau psihoterapia[334] este profund greșită. Weizenbaum a fost deranjat și de faptul că cercetătorii IA (și unii filozofi) erau dispuși să vadă mintea umană ca pe un program de calculator (o poziție cunoscută acum sub numele de computaționalism). Pentru Weizenbaum aceste idei sugerează că cercetarea IA ar devaloriza viața umană.[335]

Dreptate socială

O preocupare este că programele IA pot fi programate pentru a fi părtinitoare împotriva anumitor grupuri, cum ar fi femeile și minoritățile, deoarece majoritatea dezvoltatorilor sunt bărbați albi bogați.[336] Sprijinul pentru inteligența artificială este mai mare în rândul bărbaților (cu aprobarea de 47%) decât femeile (35%).

Scăderea cererii pentru munca umană

Relația dintre automatizare și ocuparea forței de muncă este complicată. În timp ce automatizarea elimină locurile de muncă vechi, ea și creează noi locuri de muncă prin efectele microeconomice și macroeconomice.[337] Spre deosebire de valurile anterioare de automatizare, multe locuri de muncă ale clasei mijlocii pot fi eliminate prin inteligența artificială; The Economist afirmă că „îngrijorarea pe care IA ar putea să o facă în cazul muncii calificate ceea ce a făcut mașina cu aburi celei manuale în timpul Revoluției Industriale” merită luat în serios.[338] Estimările subiective ale riscului variază foarte mult; de exemplu, Michael Osborne și Carl Benedikt Frey estimează că 47% din locurile de muncă din SUA sunt „cu risc ridicat” de automatizare potențială, în timp ce raportul OCDE clasifică doar 9% din locurile de muncă din SUA cu „risc ridicat”.[339][340][341] Locurile de muncă cu intervalul de risc extrem sunt cele de tipul paralegal sau bucătar de fast-food, în timp ce cererea de locuri de muncă este probabil să crească pentru profesiile legate de servicii directe, de la asistența medicală personală la cler. [342] Autorul Martin Ford și alții merg mai departe și susțin că un număr mare de locuri de muncă sunt de rutină, repetitive și (pentru o IA) previzibile; Ford avertizează că aceste locuri de muncă ar putea fi automatizate în următoarele decenii și că multe dintre noile locuri de muncă ar putea să nu fie „accesibile persoanelor cu capacități medii”, chiar și prin recalificare. Economiștii subliniază faptul că tehnologia din trecut avea tendința de a crește, și nu de a reduce ocuparea totală a forței de muncă, dar a recunoscut că „suntem pe un teritoriu neexplorat” cu IA.[22]

Arme autonome

Actualmente, peste 50 de țări cercetează roboți de luptă, inclusiv Statele Unite, China, Rusia și Regatul Unit. Mulți oameni preocupați de riscul de IA superinteligent doresc, de asemenea, să limiteze utilizarea soldaților și a dronelor artificiale.[343]

Mașini etice

Mașinile cu inteligență au potențialul de a-și folosi inteligența pentru a preveni daunele și pentru a minimiza riscurile; ele pot avea capacitatea de a folosi raționamentul etic pentru a-și alege mai bine acțiunile în lume. Cercetarea în acest domeniu cuprinde etica mașinii, agenții artificiali morali și IA prietenoasă.

Agenți artificiali morali

Wendell Wallach a introdus conceptul de agent artificial moral (AMA) în cartea sa Morale Machines.[344] Pentru Wallach, AMA au devenit o parte a peisajului de cercetare al inteligenței artificiale, fiind ghidat de cele două întrebări centrale pe care le identifică drept: „Vrea omenirea ca mașinile să ia decizii morale?”[345] și „pot (ro)boții să fie cu adevărat morali?”.[346] Pentru Wallach, întrebarea nu este centrată pe problema dacă mașinile pot demonstra echivalența comportamentului moral, ci pe constrângerile pe care societatea le poate impune asupra dezvoltării AMA.[347]

Etica mașinilor

Domeniul eticii mașinilor se referă la imprimarea de principii etice mașinilor sau la o procedură de descoperire a unei modalități de rezolvare a dilemelor etice pe care le-ar putea întâmpina, permițându-le să funcționeze într-o manieră etică responsabilă prin propriile decizii etice.[348] Domeniul a fost descris în Simpozionul AAAI Fall 2005 privind etica mașinilor: „Cercetările anterioare privind relația dintre tehnologie și etică s-au axat în mare parte pe utilizarea responsabilă și iresponsabilă a tehnologiei de către ființele umane, câțiva oameni fiind interesați de modul în care ființele umane tratează mașinile. În toate cazurile, numai ființele umane s-au angajat în raționamentul etic. A sosit timpul să adăugăm o dimensiune etică cel puțin unora din mașini. Recunoașterea ramificațiilor etice ale comportamentului care implică mașini, precum și evoluțiile recente și potențiale ale autonomiei mașinilor necesită acest lucru. Spre deosebire de hackingul calculatoarelor, problemele legate de proprietatea software-ului, problemele de confidențialitate și alte subiecte care sunt în mod normal atribuite eticii calculatoarelor, etica mașinilor se referă la comportamentul mașinilor față de utilizatorii umani și față de alte mașini. Cercetarea în etica mașinilor este esențială pentru atenuarea preocupărilor cu sistemele autonome — s-ar putea argumenta că noțiunea de mașini autonome fără o asemenea dimensiune este la baza tuturor temerilor legate de inteligența mașinilor. În plus, investigarea eticii mașinilor ar putea permite descoperirea unor probleme cu teoriile etice actuale, îmbunătățindu-ne gândirea despre etică.”[349] Etica mecanică este uneori denumită „moralitatea mașinii”, „etică computațională” sau „moralitate computațională”. O varietate de perspective ale acestui domeniu incipient pot fi găsite în ediția colectivă „Machine Ethics”[348] care provine din simpozionul AAAI Fall 2005 privind etica mașinilor.[349]

IA rău-voitoare și IA prietenoasă

Politologul Charles T. Rubin consideră că IA nu poate fi nici proiectată, nici garantată a fi binevoitoare.[350] El susține că „orice bunăvoință suficient de avansată poate fi indisolubilă de rea-voință”. Oamenii nu ar trebui să presupună că mașinile sau roboții ne vor trata favorabil, deoarece nu există niciun motiv a priori de a crede că ar simpatiza cu sistemul nostru de moralitate, care a evoluat odată cu biologia noastră particulară (pe care IA nu ar împărtăși-o). Software-ul inteligent poate să nu decidă neapărat să susțină existența umanității și ar fi extrem de dificil să se oprească. Acest subiect a început de curând să fie discutat în publicațiile academice ca o adevărată sursă de risc pentru civilizație, oameni și planeta Pământ.

O propunere de abordare a acestei situații este aceea de a se asigura că primul IA inteligent în general este „IA prietenos” și că va fi capabil să controleze IA dezvoltate ulterior. Unii se întreabă dacă acest tip de control ar putea rămâne funcțional.

Cercetătorul de IA Rodney Brooks scria: „cred că este o greșeală să ne îngrijorăm că am putea dezvolta IA rău-voitoare oricând în următoarele câteva sute de ani. Cred că îngrijorarea provine dintr-o eroare fundamentală de a nu distinge diferența dintre progresele recente foarte reale într-un anumit aspect al IA pe de o parte, și enormitatea și complexitatea construirii unei inteligențe voluntare conștiente de sine.”[351]

Conștiința, sentimentul și mintea pentru o mașină

Dacă un sistem cu IA replică toate aspectele cheie ale inteligenței umane, va fi și acest sistem conștient de sine — va avea o minte care are experiențe conștiente? Această întrebare este strâns legată de problema filosofică cu privire la natura conștiinței umane, numită în general problema grea a conștiinței.

Conștiința

David Chalmers a identificat două probleme în înțelegerea minții, pe care le-a numit problemele „grea” și „ușoară” ale conștiinței.[352] Problema ușoară este înțelegerea modului în care creierul procesează semnale, face planuri și controlează comportamentul. Problema grea explică cum se simte sau de ce ar trebui să se simtă. Prelucrarea informației umane este ușor de explicat, însă experiența subiectivă umană este dificil de explicat.

De exemplu, să considerăm ceea ce se întâmplă atunci când unei persoane i se arată un specimen de culoare și ea o identifică, spunând că este „roșu”. Problema ușoară necesită doar înțelegerea mecanismelor din creier care fac posibil ca o persoană să știe că specimenul de culoare este roșu. Problema dificilă este că oamenii mai știu și altceva — ei știu și cum arată roșu. (o persoană născută fără vedere poate să știe că ceva este roșu fără să știe ce arată roșu.) [l] Toată lumea știe că experiența subiectivă există, deoarece o au în fiecare zi (de exemplu, toți oamenii care pot vedea știu ce este roșu). Problema dificilă explică modul în care creierul îl creează, de ce există, și cum este diferit de cunoștințe și de alte aspecte ale creierului.

Computaționalism și funcționalism

Computaționalismul este poziția din domeniul filosofiei mințiimintea umană, creierul uman sau ambele sunt sisteme de procesare a informațiilor și că gândirea este o formă de calcul.[353] Computaționalismul susține că relația dintre minte și corp este similară sau identică cu relația dintre software și hardware și, astfel, poate fi o soluție la problema minții și corpului. Această poziție filosofică a fost inspirată de activitatea cercetătorilor din IA și a specialiștilor în științele cognitive din anii 1960 și a fost inițial propusă de filozofii Jerry Fodor și Hilary Putnam.

Ipoteza IA puternice

Poziția filosofică pe care John Searle a numit-o „IA puternică” afirmă: „calculatorul programat corespunzător, cu intrările și ieșirile corecte ar avea astfel o minte în același sens cu care oamenii au minți”.[354] Searle contrazice această afirmație cu argumentul camerei chinezești, care ne cere să privim în interiorul calculatorului și să încercăm să găsim unde ar putea fi „mintea”.[355]

Drepturile roboților

Dacă o mașină poate fi creată cu inteligență, ar putea simți? Dacă poate simți, are aceleași drepturi ca și omul? Această problemă, cunoscută acum ca „drepturile roboților”, este în prezent analizată de către Institutul pentru Viitor din California, deși mulți critici consideră că discuția este prematură.[356] Unii critici ai transumanismului susțin că orice drepturi ipotetice ale robotului ar rezida pe un spectru, cu drepturile animalelor și drepturile omului.[357] Subiectul este discutat în profunzime în filmul documentar Plug & Pray din 2010.[358]

Superinteligența

Există limite pentru cât de inteligente pot fi mașinile sau hibrizii om-mașină? O superinteligență, hiperintelligență sau inteligență supraomenească este un agent ipotetic care ar avea o inteligență care depășește cu mult pe cea a celei mai strălucite și mai talentate minți umane. Superinteligența se poate referi și la forma sau gradul de inteligență posedat de un astfel de agent.[137]

Singularitatea tehnologică

Dacă cercetarea despre IA puternică ar produce software suficient de inteligent, s-ar putea reprograma și îmbunătăți singură. Software-ul îmbunătățit ar fi chiar mai bun la a se îmbunătăți singur, ceea ce ar duce la o auto-îmbunătățire recursivă.[359] Noua inteligență ar putea astfel să crească exponențial și să depășească în mod dramatic oamenii. Scriitorul de science fiction Vernor Vinge a numit acest scenariu „singularitatea”.[360] Singularitatea tehnologică este atunci când accelerarea progresului în tehnologii va provoca un efect în cascadă, în care inteligența artificială va depăși controlul și capacitatea intelectuală a omului, schimbând astfel radical sau chiar punând capăt civilizației. Deoarece capacitățile unei astfel de inteligențe pot fi imposibil de înțeles, singularitatea tehnologică este un eveniment dincolo de care evenimentele sunt imprevizibile sau chiar imposibil de imaginat.[360][137]

Ray Kurzweil a folosit legea lui Moore (care descrie îmbunătățirea exponențială neîncetată a tehnologiei digitale) pentru a calcula că calculatoarele desktop vor avea aceeași putere de procesare ca și creierul uman până în anul 2029 și prezice că singularitatea va avea loc în 2045. [360]

Transumanismul

Proiectantul de roboți Hans Moravec, ciberneticianul Kevin Warwick și inventatorul Ray Kurzweil au prezis că oamenii și mașinile se vor îmbina în viitor în cyborgi care vor fi mai capabili și mai puternici decât oricare dintre ei.[361] Această idee, numită transumanism, are rădăcini în Aldous Huxley și Robert Ettinger .

Edward Fredkin susține că „inteligența artificială este următoarea etapă a evoluției”, o idee propusă inițial de „Darwin între mașini” a lui Samuel Butler (1863) și extinsă de George Dyson în cartea cu același nume în 1998.[362]

În ficțiune

Însuși cuvântul „robot” a fost inventat de Karel Čapek în piesa de teatru RUR din 1921, titlul ei însemnând „Roboți Universali Rossum

Ființele artificiale capabile de gândire au apărut ca instrumente narative încă din antichitate[24] și au fost o temă persistentă în science fiction.

Un motiv comun în aceste lucrări a început cu Frankenstein al lui Mary Shelley, unde o creație umană devine o amenințare pentru stăpânii săi. Motivul apare și în opere ca în cartea 2001: O Odisee Spațială de Arthur C. Clarke și filmul cu același titlu al lui Stanley Kubrick (ambele din 1968), cu HAL 9000, computerul ucigaș care controlează nava spațială Discovery One; precum și The Terminator (1984) și The Matrix. În schimb, roboți credincioși sunt rari, cum ar fi Gort din Ziua în care Pământul s-a oprit (1951) și Bishop din Aliens (1986), sunt mai puțin proeminenți în cultura populară.[363]

Isaac Asimov a introdus cele trei legi ale roboticii în multe cărți și povestiri, mai ales seria „Multivac” despre un computer super-inteligent cu același nume. Legile lui Asimov sunt adesea aduse în discuțiile nespecialiștilor în etica mașinilor;[364] aproape toți cercetătorii de inteligență artificială sunt familiarizați cu legile lui Asimov prin cultura populară, dar ei le consideră în general inutile din mai multe motive, dintre care unul este ambiguitatea lor.[365]

Transumanismul (îmbinarea oamenilor și mașinilor) este explorat în manga Ghost in the Shell și în seria science-fiction Dune. În anii 1980, seria Sexy Robots a artistului Hajime Sorayama a fost pictată și publicată în Japonia, reprezentând forma umană organică reală cu piei metalice pline de viață, și ulterior cartea „Gynoids", care a fost folosită de sau chiar i-a influențat pe producători de film, între care George Lucas. Sorayama nu a considerat niciodată că acești roboți organici sunt o parte reală a naturii, ci mereu un produs nenatural al minții umane, o fantezie existentă doar în minte chiar și atunci când este realizată în formă reală.

Mai multe lucrări utilizează IA pentru a ne forța să ne confruntăm cu întrebarea fundamentală despre ce ne face să fim umani, arătându-ne ființe artificiale care au capacitatea de a simți și, astfel, de a suferi. Acest lucru apare în „RUR” a lui Karel Čapek, în filmele „Inteligența artificială” și „Ex Machina”, precum și în romanul „Visează androizii oi electrice?” de Philip K. Dick. Dick consideră ideea că înțelegerea subiectivității umane este modificată de tehnologia creată cu inteligența artificială.[366]

Manuale de IA

Istoria IA

Alte surse

 

Lectură suplimentară

  1. ^ a b Definiția AI ca studiu al agenților inteligenți :
  2. ^ a b Kaplan Andreas; Michael Haenlein (2018) Siri, Siri în mâna mea, cine este cel mai faurător din țară? Cu privire la interpretările, ilustrațiile și implicațiile inteligenței artificiale, orizonturile de afaceri, 62 (1)
  3. ^ Russell & Norvig 2009, p. 2.
  4. ^ Maloof, Mark. „Artificial Intelligence: An Introduction, p. 37” (PDF). georgetown.edu. 
  5. ^ Citare goală (ajutor) 
  6. ^ a b Russell & Norvig 2009.
  7. ^ a b „AlphaGo – Google DeepMind”. Arhivat din original la . 
  8. ^ a b Optimismul AI timpuriu:
  9. ^ a b c Boom-ul anilor 1980: creșterea sistemelor expert , Proiectul de generație a cincea , Alvey , MCC , SCI :
  10. ^ a b Primul AI de iarnă , amendamentul Mansfield , raportul Lighthill
  11. ^ a b A doua iarnă AI :
  12. ^ a b c AI devine extrem de reușită la începutul secolului XXI
  13. ^ a b Pamela McCorduck (2004 , p.   424) scrie despre "distrugerea gravă a AI în subdomenii - viziune, limbaj natural, teorie a deciziilor, algoritmi genetici, robotică   ... și cu subcâmpuri proprii - care nu ar avea nimic de spus unul pe celălalt ".
  14. ^ a b c Această listă de trăsături inteligente se bazează pe subiectele abordate de manualele AI majore, printre care:
  15. ^ a b c Inteligența biologică vs. inteligența în general:
  16. ^ a b c Neats vs. scruffies :
  17. ^ a b Simbolic vs. AI sub-simbolic:
  18. ^ a b Inteligența generală ( AI puternică ) este discutată în introducerea populară a AI:
  19. ^ Vedeți propunerea de la Dartmouth , sub Filosofie , de mai jos.
  20. ^ a b Aceasta este o idee centrală a mașinilor care gândesc Pamela McCorduck . Ea scrie: "Îmi place să mă gândesc la inteligența artificială ca la apoteoza științifică a unei tradiții culturale venerabile". ( McCorduck 2004 , p.   34) "Inteligența artificială într-o formă sau alta este o idee care a pătruns în istoria intelectuală occidentală, un vis în nevoie urgentă de a fi realizat". ( McCorduck 2004 , p.   xviii) "Istoria noastră este plină de încercări - nerăbdător, amețitor, comic, serios, legendar și real - de a face inteligența artificială, de a reproduce ceea ce ne este esențial - ocolind mijloacele obișnuite. oferind ceea ce atelierele noastre nu au putut, ne-am angajat mult timp în această formă ciudată de autoproducere ". ( McCorduck 2004 , p.   3) Ea urmărește dorința înapoi la rădăcinile sale elenistice și o numește dorința de a "fortifica zeii". ( McCorduck 2004 , p.   340-400)
  21. ^ „Stephen Hawking believes AI could be mankind's last accomplishment”. BetaNews. . Arhivat din original la . 
  22. ^ a b Ford, Martin; Colvin, Geoff (). „Will robots create more jobs than they destroy?”. The Guardian. Accesat în . 
  23. ^ a b Aplicațiile AI utilizate pe scară largă în spatele scenei:
  24. ^ a b AI în mit:
  25. ^ AI în știința ficțiunii timpurii.
  26. ^ Raționament formal:
  27. ^ "Inteligență artificială." Encyclopedia of Emerging Industries, editat de Lynn M. Pearce, ediția a 6-a, Gale, 2011, pp. 73-80. Gale Virtual Reference Library, http://go.galegroup.com/ps/anonymous?id=GALECX1930200017 . Accesat la 31 martie 2018.
  28. ^ Russell & Norvig 2009, p. 16.
  29. ^ Conferința de la Dartmouth :
  30. ^ Hegemonia participanților la conferința de la Dartmouth:
  31. ^ Russell & Norvig 2003, p. 18.
  32. ^ Schaeffer J. (2009) Nu a reușit Samuel să rezolve acel joc? În: Un salt înainte. Springer, Boston, MA
  33. ^ Samuel, A. L. (iulie 1959). „Some Studies in Machine Learning Using the Game of Checkers”. IBM Journal of Research and Development. 3 (3): 210–229. doi:10.1147/rd.33.0210. 
  34. ^ " Anii de Aur " ai AI (programe de raționalizare simbolică de succes 1956-1973):
  35. ^ DARPA atrage bani în cercetare pur nedirecționată în AI în anii 1960:
  36. ^ AI în Anglia:
  37. ^ Lighthill 1973.
  38. ^ a b Sistem expert:
  39. ^ a b Sunt preferate metodele formale ("Victoria neaturilor "):
  40. ^ McCorduck 2004, pp. 480–483.
  41. ^ Markoff 2011.
  42. ^ „Ask the AI experts: What's driving today's progress in AI?”. McKinsey & Company (în engleză). Accesat în . 
  43. ^ Administrator. „Kinect's AI breakthrough explained”. i-programmer.info. Arhivat din original la . 
  44. ^ Rowinski, Dan (). „Virtual Personal Assistants & The Future Of Your Smartphone [Infographic]”. ReadWrite. Arhivat din original la . 
  45. ^ „Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol”. BBC News. . Arhivat din original la . Accesat în . 
  46. ^ „After Win in China, AlphaGo's Designers Explore New AI”. Wired. . Arhivat din original la . 
  47. ^ „World's Go Player Ratings”. mai 2017. Arhivat din original la . 
  48. ^ „柯洁迎19岁生日 雄踞人类世界排名第一已两年” (în Chinese). mai 2017. Arhivat din original la . 
  49. ^ a b Clark, Jack (). „Why 2015 Was a Breakthrough Year in Artificial Intelligence”. Bloomberg News. Arhivat din original la . Accesat în . After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever. 
  50. ^ „Reshaping Business With Artificial Intelligence”. MIT Sloan Management Review (în engleză). Accesat în . 
  51. ^ Lorica, Ben (). „The state of AI adoption”. O'Reilly Media (în engleză). Accesat în . 
  52. ^ „Who's afraid of artificial intelligence in China? | DW | 18.09.2018”. DW.COM (în engleză). septembrie 2018. Accesat în . 
  53. ^ „Review | How two AI superpowers – the U.S. and China – battle for supremacy in the field”. Washington Post (în engleză). . Accesat în . 
  54. ^ Domingos 2015, Chapter 5.
  55. ^ Domingos 2015, Chapter 7.
  56. ^ Lindenbaum, M., Markovitch, S. și Rusakov, D. (2004). Eșantionare selectivă pentru clasificatorii cei mai apropiați. Învățarea în mașină, 54 (2), 125-152.
  57. ^ Domingos 2015, Chapter 1.
  58. ^ a b Intractabilitatea și eficiența și explozia combinatorică :
  59. ^ Domingos 2015, Chapter 2, Chapter 3.
  60. ^ Hart, P. E.; Nilsson, N. J.; Raphael, B. (). „Correction to "A Formal Basis for the Heuristic Determination of Minimum Cost Paths"”. SIGART Newsletter (37): 28–29. doi:10.1145/1056777.1056779. 
  61. ^ „Algorithm in Artificial Intelligence”. 
  62. ^ Domingos 2015, Chapter 2, Chapter 4, Chapter 6.
  63. ^ „Can neural network computers learn from experience, and if so, could they ever become what we would call 'smart'?”. Scientific American (în engleză). . Accesat în . 
  64. ^ Domingos 2015, Chapter 6, Chapter 7.
  65. ^ Domingos 2015, p. 286.
  66. ^ „Single pixel change fools AI programs”. BBC News. . Accesat în . 
  67. ^ „AI Has a Hallucination Problem That's Proving Tough to Fix”. WIRED. . Accesat în . 
  68. ^ Goodfellow, Ian J., Jonathon Shlens și Christian Szegedy. "Explicarea și valorificarea exemplelor contradictorii". arXiv preprint arXiv: 1412.6572 (2014).
  69. ^ Matti, D.; Ekenel, H. K.; Thiran, J. P. (). Combining LiDAR space clustering and convolutional neural networks for pedestrian detection. 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). pp. 1–6. doi:10.1109/AVSS.2017.8078512. ISBN 978-1-5386-2939-0. 
  70. ^ Ferguson, Sarah; Luders, Brandon; Grande, Robert C.; How, Jonathan P. (). Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions. Algorithmic Foundations of Robotics XI. Springer Tracts in Advanced Robotics (în engleză). 107. Springer, Cham. pp. 161–177. doi:10.1007/978-3-319-16595-0_10. ISBN 978-3-319-16594-3. 
  71. ^ „Cultivating Common Sense | DiscoverMagazine.com”. Discover Magazine. . Accesat în . 
  72. ^ Davis, Ernest; Marcus, Gary (). „Commonsense reasoning and commonsense knowledge in artificial intelligence”. Communications of the ACM. 58 (9): 92–103. doi:10.1145/2701413. 
  73. ^ Winograd, Terry (ianuarie 1972). „Understanding natural language”. Cognitive Psychology. 3 (1): 1–191. doi:10.1016/0010-0285(72)90002-3. 
  74. ^ „Don't worry: Autonomous cars aren't coming tomorrow (or next year)”. Autoweek. . Accesat în . 
  75. ^ Knight, Will (). „Boston may be famous for bad drivers, but it's the testing ground for a smarter self-driving car”. MIT Technology Review (în engleză). Accesat în . 
  76. ^ Prakken, Henry (). „On the problem of making autonomous vehicles conform to traffic law”. Artificial Intelligence and Law. 25 (3): 341–363. doi:10.1007/s10506-017-9210-0. 
  77. ^ Rezolvarea problemelor, rezolvarea puzzle-urilor, jocul și deducerea:
  78. ^ Înțelegere neechivă:
  79. ^ Evidența psihologică a raționamentului sub-simbolic:
  80. ^ Reprezentarea cunoștințelor :
  81. ^ Tehnologia cunoștințelor :
  82. ^ a b Reprezentarea categoriilor și a relațiilor: Rețele semantice , logica descriptivă , moștenire (inclusiv cadre și scripturi ):
  83. ^ a b Reprezentarea evenimentelor și a timpului: Calculul situației , calculul evenimentului , calculul fluent (inclusiv rezolvarea problemei cadrului ):
  84. ^ a b Calculul cauzal :
  85. ^ a b Reprezentarea cunoștințelor despre cunoaștere: Calculul credinței , logica modală :
  86. ^ Sikos, Leslie F. (iunie 2017). Description Logics in Multimedia Reasoning. Cham: Springer. doi:10.1007/978-3-319-54066-5. ISBN 978-3-319-54066-5. 
  87. ^ Ontologie :
  88. ^ Smoliar, Stephen W.; Zhang, HongJiang (). „Content based video indexing and retrieval”. IEEE Multimedia. 1.2: 62–72. 
  89. ^ Neumann, Bernd; Möller, Ralf (ianuarie 2008). „On scene interpretation with description logics”. Image and Vision Computing. 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013. 
  90. ^ Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (). „Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations”. Journal of the American Medical Informatics Association. 13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681Accesibil gratuit. PMID 16622160. 
  91. ^ MCGARRY, KEN (). „A survey of interestingness measures for knowledge discovery”. The Knowledge Engineering Review. 20 (1): 39. doi:10.1017/S0269888905000408. 
  92. ^ Bertini, M; Del Bimbo, A; Torniai, C (). „Automatic annotation and semantic retrieval of video sequences using multimedia ontologies”. MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682. 
  93. ^ Problemă de calificare :
  94. ^ a b Raționamentul implicit și logica implicită , logica non-monotonică , circumscripția , ipoteza închisă a lumii , răpirea (Poole et al. , Răpirea locurilor sub "raționamentul implicit", Luger et al.
  95. ^ Lățimea cunoștințelor comune:
  96. ^ Dreyfus & Dreyfus 1986.
  97. ^ Gladwell 2005.
  98. ^ a b Cunoștințe de specialitate ca intuiție întrupată :
  99. ^ Planificare :
  100. ^ a b Teoria valorilor informațiilor :
  101. ^ Planificarea clasică:
  102. ^ Planificarea și acționarea în domenii nedeterministe: planificarea condiționată, monitorizarea execuției, replanificarea și planificarea continuă:
  103. ^ Planificarea multi-agent și comportamentul emergent:
  104. ^ Alan Turing discussed the centrality of learning as early as 1950, in his classic paper "Computing Machinery and Intelligence".(Turing 1950) In 1956, at the original Dartmouth AI summer conference, Ray Solomonoff wrote a report on unsupervised probabilistic machine learning: "An Inductive Inference Machine".(Solomonoff 1956)
  105. ^ Aceasta este o forma a definitiei masinilor de invatare a lui Tom Mitchell : "Un program de calculator este setat sa invete dintr-o experienta E in ceea ce priveste o sarcina T si o masura de performanta P daca performanta ei pe T masurata prin P se imbunatateste cu experiența E ".
  106. ^ a b Învățare :
  107. ^ „What is Unsupervised Learning?”. deepai.org. 
  108. ^ Jordan, M. I.; Mitchell, T. M. (). „Machine learning: Trends, perspectives, and prospects”. Science. 349 (6245): 255–260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243. 
  109. ^ Consolidarea învățării :
  110. ^ Procesarea limbajului natural :
  111. ^ "Versatile question answering systems: seeing in synthesis" Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol., Mittal et al., IJIIDS, 5(2), 119–142, 2011
  112. ^ Aplicații ale prelucrării limbajului natural, inclusiv recuperarea informațiilor (de exemplu miniere text ) și traducere automată :
  113. ^ Cambria, Erik; White, Bebo (mai 2014). „Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]”. IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227. 
  114. ^ Percepția mașinii :
  115. ^ Recunoașterea vorbelor :
  116. ^ Recunoașterea obiectelor :
  117. ^ Viziunea computerului :
  118. ^ Robotica :
  119. ^ a b Spațiu de mișcare și de configurare :
  120. ^ a b Tecuci 2012.
  121. ^ Maparea robotică (localizare, etc):
  122. ^ Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (decembrie 2016). „Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age”. IEEE Transactions on Robotics. 32 (6): 1309–1332. doi:10.1109/TRO.2016.2624754. 
  123. ^ Moravec, Hans (). Mind Children. Harvard University Press. p. 15. 
  124. ^ Chan, Szu Ping (). „This is what will happen when robots take over the world”. Accesat în . 
  125. ^ a b „IKEA furniture and the limits of AI”. The Economist (în engleză). . Accesat în . 
  126. ^ Kismet.
  127. ^ Citare goală (ajutor) 
  128. ^ Scassellati, Brian (). „Theory of mind for a humanoid robot”. Autonomous Robots. 12 (1): 13–24. doi:10.1023/A:1013298507114. 
  129. ^ Cao, Yongcan; Yu, Wenwu; Ren, Wei; Chen, Guanrong (februarie 2013). „An Overview of Recent Progress in the Study of Distributed Multi-Agent Coordination”. IEEE Transactions on Industrial Informatics. 9 (1): 427–438. doi:10.1109/TII.2012.2219061. 
  130. ^ Thro 1993.
  131. ^ Edelson 1991.
  132. ^ Tao & Tan 2005.
  133. ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (septembrie 2017). „A review of affective computing: From unimodal analysis to multimodal fusion”. Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. 
  134. ^ Emoția și calculul afectiv :
  135. ^ Citare goală (ajutor) 
  136. ^ Pennachin, C.; Goertzel, B. (). Contemporary Approaches to Artificial General Intelligence. Artificial General Intelligence. Cognitive Technologies. Cognitive Technologies. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-540-23733-4. 
  137. ^ a b c Citare goală (ajutor) 
  138. ^ „The superhero of artificial intelligence: can this genius keep it in check?”. the Guardian (în engleză). . Accesat în . 
  139. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A.; Veness, Joel; Bellemare, Marc G.; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K. (). „Human-level control through deep reinforcement learning”. Nature. 518 (7540): 529–533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236. PMID 25719670. 
  140. ^ Sample, Ian (). „Google's DeepMind makes AI program that can learn like a human”. the Guardian (în engleză). Accesat în . 
  141. ^ „From not working to neural networking”. The Economist (în engleză). . Accesat în . 
  142. ^ Domingos 2015.
  143. ^ a b Argumentele creierului artificial : AI necesită o simulare a funcționării creierului uman
  144. ^ Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (decembrie 2010). „A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures”. Neurocomputing. 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012. 
  145. ^ Nils Nilsson writes: "Simply put, there is wide disagreement in the field about what AI is all about" (Nilsson 1983, p. 10).
  146. ^ Precursorii imediali ai AI:
  147. ^ Haugeland 1985 , pp.   112-117
  148. ^ Cel mai dramatic caz al AI sub-simbolic care a fost împins în fundal a fost critica devastatoare a perceptronilor de către Marvin Minsky și Seymour Papert în 1969. A se vedea Istoria AI , AI iarnă , sau Frank Rosenblatt .
  149. ^ Simulare cognitivă, Newell și Simon , AI la CMU (numită apoi Carnegie Tech ):
  150. ^ Soar (istoric):
  151. ^ Cercetarea McCarthy și AI la SAIL și SRI International :
  152. ^ Cercetarea AI la Edinburgh și în Franța, nașterea lui Prolog :
  153. ^ AI la MIT sub Marvin Minsky în anii 1960  :
  154. ^ Cyc :
  155. ^ Cunoașterea revoluției:
  156. ^ Frederick, Hayes-Roth; William, Murray; Leonard, Adelman. „Expert systems” (în engleză). doi:10.1036/1097-8542.248550. 
  157. ^ Abordări integrate la AI:
  158. ^ Weng et al. 2001.
  159. ^ Lungarella et al. 2003.
  160. ^ Asada et al. 2009.
  161. ^ Oudeyer 2010.
  162. ^ Renasterea conexiunii :
  163. ^ Computational intelligence
  164. ^ Hutson, Matthew (). „Artificial intelligence faces reproducibility crisis”. Science (în engleză). pp. 725–726. Bibcode:2018Sci...359..725H. doi:10.1126/science.359.6377.725. Accesat în . 
  165. ^ Norvig 2012.
  166. ^ Langley 2011.
  167. ^ Katz 2012.
  168. ^ Paradigma agentului inteligent :
  169. ^ Arhitecturi de agenți , sisteme hibride inteligente :
  170. ^ Sistem de control ierarhic :
  171. ^ Laird, John (). „Extending the Soar cognitive architecture”. Frontiers in Artificial Intelligence and Applications. 171: 224. 
  172. ^ Lieto, Antonio; Bhatt, Mehul; Oltramari, Alessandro; Vernon, David (mai 2018). „The role of cognitive architectures in general artificial intelligence”. Cognitive Systems Research. 48: 1–3. doi:10.1016/j.cogsys.2017.08.003. 
  173. ^ Algoritmi de căutare :
  174. ^ Îmbinare spre înainte , înlănțuire înapoi , clauze Horn și deducere logică ca căutare:
  175. ^ Căutarea și planificarea spațiului de stat :
  176. ^ Căutări neinformate ( prima căutare în lățime, prima căutare în profunzime și căutare generală în spațiu de stare ):
  177. ^ Căutări euristice sau informate (de exemplu, cel mai bine la început și A * ):
  178. ^ Căutări de optimizare :
  179. ^ Programare genetică și algoritmi genetici :
  180. ^ Viața artificială și învățarea bazată pe societate:
  181. ^ Daniel Merkle; Martin Middendorf (). „Swarm Intelligence”. În Burke, Edmund K.; Kendall, Graham. Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques (în engleză). Springer Science & Business Media. ISBN 978-1-4614-6940-7. 
  182. ^ Logică :
  183. ^ Satplan :
  184. ^ Învățarea bazată pe explicații, învățarea bazată pe relevanță , programarea logică inductivă , raționamentul bazat pe caz :
  185. ^ Logica propozițională :
  186. ^ Prima logică și caracteristici precum egalitatea :
  187. ^ Elkin, Charles (). „The paradoxical success of fuzzy logic”. IEEE Expert. 9 (4): 3–49. CiteSeerX 10.1.1.100.8402Accesibil gratuit. doi:10.1109/64.336150. 
  188. ^ Fizica logică :
  189. ^ „What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic?”. Scientific American (în engleză). Accesat în . 
  190. ^ "Calculul credinței și rațiunea incertă", Yen-Teh Hsia
  191. ^ a b Domingos 2015, chapter 6.
  192. ^ Demey, Lorenz; Kooi, Barteld; Sack, Joshua (). „Logic and Probability”. Accesat în . 
  193. ^ Metode stochastice pentru raționamentul incert:
  194. ^ Rețelele bayesiene :
  195. ^ Bayesian algoritmul de inferență :
  196. ^ Domingos 2015, p. 210.
  197. ^ Învățarea Bayesian și algoritmul de așteptare-maximizare :
  198. ^ Teoria deciziei Bayesian și rețelele decizionale Bayesian:
  199. ^ a b c Modele temporale stochastice:
  200. ^ teoria deciziei și analiza deciziei :
  201. ^ Markov procese decizionale și rețele dinamice de decizie :
  202. ^ Teoria jocului și designul mecanismului :
  203. ^ Metode statistice de învățare și clasificatori :
  204. ^ Arborele de decizie :
  205. ^ Domingos 2015, p. 88.
  206. ^ a b Rețele neuronale și conexiune:
  207. ^ Domingos 2015, p. 187.
  208. ^ Cel mai apropiat algoritm de vecinătate :
  209. ^ Domingos 2015, p. 188.
  210. ^ metode de kernel, cum ar fi mașină vector de suport :
  211. ^ Model de amestec gaussian :
  212. ^ Domingos 2015, p. 152.
  213. ^ Naive Bayes clasificator :
  214. ^ Clasificarea performanțelor:
  215. ^ Russell & Norvig 2009, 18.12: Learning from Examples: Summary.
  216. ^ Domingos 2015, Chapter 4.
  217. ^ „Why Deep Learning Is Suddenly Changing Your Life”. Fortune. . Accesat în . 
  218. ^ „Google leads in the race to dominate artificial intelligence”. The Economist (în engleză). . Accesat în . 
  219. ^ Rețelele neuronale de alimentare , perceptronurile și rețelele radiale de bază :
  220. ^ Învățarea competitivă , învățarea coincidenței Hebbian , rețelele Hopfield și rețelele de atractori:
  221. ^ Seppo Linnainmaa (1970). Reprezentarea erorii cumulative de rotunjire a unui algoritm ca expansiune Taylor a erorilor locale de rotunjire. Teza de masterat (în limba finlandeză), Univ. Helsinki, 6-7.
  222. ^ Griewank, Andreas (2012). Cine a inventat modul invers de diferențiere? Povești de optimizare, Documenta Matematica, Extra Volume ISMP (2012), 389-400.
  223. ^ Paul Werbos , "Dincolo de regresie: noi instrumente de predicție și analiză în științele comportamentale", teză de doctorat, Universitatea Harvard , 1974.
  224. ^ Paul Werbos (1982). Applications of advances in nonlinear sensitivity analysis. In System modeling and optimization (pp. 762–770). Springer Berlin Heidelberg. Online Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol.
  225. ^ Backpropagation :
  226. ^ Memoria temporală ierarhică :
  227. ^ „Artificial intelligence can 'evolve' to solve problems”. Science | AAAS (în engleză). . Accesat în . 
  228. ^ a b c d Schmidhuber, J. (). „Deep Learning in Neural Networks: An Overview”. Neural Networks. 61: 85–117. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. 
  229. ^ a b Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press. Online Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol.
  230. ^ Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P. (). „Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups”. IEEE Signal Processing Magazine. 29 (6): 82–97. doi:10.1109/msp.2012.2205597. 
  231. ^ Schmidhuber, Jürgen (). „Deep Learning”. Scholarpedia. 10 (11): 32832. Bibcode:2015SchpJ..1032832S. doi:10.4249/scholarpedia.32832. 
  232. ^ Rina Dechter (1986). Learning while searching in constraint-satisfaction problems. University of California, Computer Science Department, Cognitive Systems Laboratory.Online Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol.
  233. ^ Igor Aizenberg, Naum N. Aizenberg, Joos PL Vandewalle (2000). Neuronii binari multi-valori și universali: teorie, învățare și aplicații. Springer Știință și Business Media.
  234. ^ Ivakhnenko, Alexey (). Cybernetic Predicting Devices. Kiev: Naukova Dumka. 
  235. ^ Ivakhnenko, Alexey (). „Polynomial theory of complex systems”. IEEE Transactions on Systems, Man and Cybernetics (4): 364–378. 
  236. ^ Hinton 2007.
  237. ^ Research, AI (). „Deep Neural Networks for Acoustic Modeling in Speech Recognition”. airesearch.com. Accesat în . 
  238. ^ Fukushima, K. (). „Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position”. Biological Cybernetics. 36 (4): 193–202. doi:10.1007/bf00344251. PMID 7370364. 
  239. ^ Yann LeCun (2016). Slides on Deep Learning Online Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol.
  240. ^ Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew (). „Mastering the game of Go without human knowledge”. Nature. 550 (7676): 354–359. Bibcode:2017Natur.550..354S. doi:10.1038/nature24270. ISSN 0028-0836. PMID 29052630. AlphaGo Lee... 12 convolutional layers Format:Closed access
  241. ^ Retele neuronale recurente , plase Hopfield :
  242. ^ Hyötyniemi, Heikki (). „Turing machines are recurrent neural networks”. Proceedings of STeP '96/Publications of the Finnish Artificial Intelligence Society: 13–24. 
  243. ^ PJ Werbos. Generalizarea backpropagation-ului cu aplicarea pe un model recurent de piață a gazelor " Neural Networks 1, 1988.
  244. ^ AJ Robinson și F. Fallside. Rețeaua de propagare a erorilor dinamice cauzate de utilitate. Raport Tehnic CUED / F-INFENG / TR.1, Departamentul de Inginerie al Universității din Cambridge, 1987.
  245. ^ RJ Williams și D. Zipser. Gradienți bazate pe algoritmi de învățare pentru rețele recurente și complexitatea lor computațională. În propagarea înapoi: teorie, arhitecturi și aplicații. Hillsdale, NJ: Erlbaum, 1994.
  246. ^ Sepp Hochreiter (1991), Untersuchungen zu dynamischen neuronalen Netzen Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol., Diploma thesis. Institut f. Informatik, Technische Univ. Munich. Advisor: J. Schmidhuber.
  247. ^ Schmidhuber, J. (). „Learning complex, extended sequences using the principle of history compression”. Neural Computation. 4 (2): 234–242. doi:10.1162/neco.1992.4.2.234. 
  248. ^ Hochreiter, Sepp ; și Schmidhuber, Jürgen ; Memorie pe termen scurt pe termen scurt , computament neuronal, 9 (8): 1735-1780, 1997
  249. ^ Alex Graves, Santiago Fernandez, Faustino Gomez și Jürgen Schmidhuber (2006). Clasificarea temporală a conectivității: Etichetarea datelor de secvență nesegmentate cu plase neuronale recurente. Proceedings of ICML'06, pp. 369-376.
  250. ^ Hannun. „Deep Speech: Scaling up end-to-end speech recognition”. arXiv:1412.5567Accesibil gratuit. 
  251. ^ Hasim Sak și Andrew Senior și Francoise Beaufays (2014). Arhitecturi neuronale recurente de memorie pe termen scurt pentru memorie acustică la scară largă. Proceedings of Interspeech 2014.
  252. ^ Li. „Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition”. arXiv:1410.4281Accesibil gratuit. 
  253. ^ Haşim Sak, Andrew Senior, Kanishka Rao, Françoise Beaufays and Johan Schalkwyk (September 2015): Google voice search: faster and more accurate. Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol.
  254. ^ Sutskever. „Sequence to Sequence Learning with Neural Networks”. arXiv:1409.3215Accesibil gratuit. 
  255. ^ Jozefowicz. „Exploring the Limits of Language Modeling”. arXiv:1602.02410Accesibil gratuit. 
  256. ^ Gillick. „Multilingual Language Processing From Bytes”. arXiv:1512.00103Accesibil gratuit. 
  257. ^ Vinyals. „Show and Tell: A Neural Image Caption Generator”. arXiv:1411.4555Accesibil gratuit. 
  258. ^ Brynjolfsson, Erik; Mitchell, Tom (). „What can machine learning do? Workforce implications”. Science (în engleză). pp. 1530–1534. Bibcode:2017Sci...358.1530B. doi:10.1126/science.aap8062. Accesat în . 
  259. ^ Sample, Ian (). 'It's able to create knowledge itself': Google unveils AI that learns on its own”. the Guardian (în engleză). Accesat în . 
  260. ^ „The AI revolution in science”. Science | AAAS (în engleză). . Accesat în . 
  261. ^ „Will your job still exist in 10 years when the robots arrive?”. South China Morning Post (în engleză). . Accesat în . 
  262. ^ Borowiec, Tracey Lien, Steven (). „AlphaGo beats human Go champ in milestone for artificial intelligence”. latimes.com. Accesat în . 
  263. ^ Brown, Noam; Sandholm, Tuomas (). „Superhuman AI for heads-up no-limit poker: Libratus beats top professionals”. Science (în engleză). pp. 418–424. doi:10.1126/science.aao1733. Accesat în . 
  264. ^ Ontanon, Santiago; Synnaeve, Gabriel; Uriarte, Alberto; Richoux, Florian; Churchill, David; Preuss, Mike (decembrie 2013). „A Survey of Real-Time Strategy Game AI Research and Competition in StarCraft”. IEEE Transactions on Computational Intelligence and AI in Games. 5 (4): 293–311. doi:10.1109/TCIAIG.2013.2286295. 
  265. ^ „Facebook Quietly Enters StarCraft War for AI Bots, and Loses”. WIRED. . Accesat în . 
  266. ^ „ILSVRC2017”. image-net.org (în engleză). Accesat în . 
  267. ^ Schoenick, Carissa; Clark, Peter; Tafjord, Oyvind; Turney, Peter; Etzioni, Oren (). „Moving beyond the Turing Test with the Allen AI Science Challenge”. Communications of the ACM. 60 (9): 60–64. doi:10.1145/3122814. 
  268. ^ O'Brien & Marakas 2011.
  269. ^ Definiții matematice ale inteligenței:
  270. ^ Hernández-Orallo, José; Dowe, David L.; Hernández-Lloreda, M.Victoria (martie 2014). „Universal psychometrics: Measuring cognitive abilities in the machine kingdom”. Cognitive Systems Research. 27: 50–74. doi:10.1016/j.cogsys.2013.06.001. 
  271. ^ a b Russell & Norvig 2009, p. 1.
  272. ^ CNN 2006.
  273. ^ Utilizarea AI pentru a anticipa întârzierile de zbor , Ishti.org.
  274. ^ N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (). „Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective”. PeerJ Computer Science. 2: e93. doi:10.7717/peerj-cs.93. 
  275. ^ „The Economist Explains: Why firms are piling into artificial intelligence”. The Economist. . Arhivat din original la . Accesat în . 
  276. ^ Lohr, Steve (). „The Promise of Artificial Intelligence Unfolds in Small Steps”. The New York Times. Arhivat din original la . Accesat în . 
  277. ^ Wakefield, Jane (). „Social media 'outstrips TV' as news source for young people”. BBC News. Arhivat din original la . 
  278. ^ Smith, Mark (). „So you think you chose to read this article?”. BBC News. Arhivat din original la . 
  279. ^ „10 Promising AI Applications in Health Care”. Harvard Business Review. . Accesat în . 
  280. ^ Dina Bass (). „Microsoft Develops AI to Help Cancer Doctors Find the Right Treatments”. Bloomberg. Arhivat din original la . 
  281. ^ Gallagher, James (). „Artificial intelligence 'as good as cancer doctors'. BBC News (în engleză). Arhivat din original la . Accesat în . 
  282. ^ Citare goală (ajutor) 
  283. ^ Kermany, D; Goldbaum, M; Zhang, Kang. „Identifying Medical Diagnoses and Treatable Diseases by Image-Based Deep Learning” (PDF). www.cell.com. Accesat în . 
  284. ^ Senthilingam, Meera (). „Are Autonomous Robots Your next Surgeons?”. CNN. Cable News Network. Arhivat din original la . Accesat în . 
  285. ^ Markoff, John (). „On 'Jeopardy!' Watson Win Is All but Trivial”. The New York Times. Arhivat din original la . 
  286. ^ Ng, Alfred (). „IBM's Watson gives proper diagnosis after doctors were stumped”. NY Daily News (în engleză). Arhivat din original la . 
  287. ^ "33 Corporații care lucrează pe autovehicule autonome". Statistici CB. Np, 11 august 2016. 12 noiembrie 2016.
  288. ^ West, Darrell M. "Mergând înainte: autovehicule cu autovehicule în China, Europa, Japonia, Coreea și Statele Unite". Centrul de Inovare în Tehnologie de la Brookings. Np, septembrie 2016. 12 noiembrie 2016.
  289. ^ Burgess, Matt (). „The UK is about to Start Testing Self-Driving Truck Platoons”. Wired UK. Arhivat din original la . Accesat în . 
  290. ^ Davies, Alex (). „World's First Self-Driving Semi-Truck Hits the Road”. WIRED. Arhivat din original la . Accesat în . 
  291. ^ McFarland, Matt. "Descoperirea inteligenței artificiale a Google poate avea un impact imens asupra autovehiculelor și mult mai mult". Washington Post, 25 februarie 2015. Chioșc Infotrac. 24 octombrie 2016
  292. ^ "Programarea siguranței în autoturisme". Fundația Națională de Științe. Np, 2 februarie 2015. 24 octombrie 2016.
  293. ^ ArXiv, ET (26 octombrie 2015). De ce autovehiculele cu autovehicule trebuie programate să ucidă. Adus 17 noiembrie 2017, de la https://www.technologyreview.com/s/542626/why-self-driving-cars-must-be-programmed-to-kill/
  294. ^ O'Neill, Eleanor (). „Accounting, automation and AI”. www.icas.com (în English). Arhivat din original la . Accesat în . 
  295. ^ Robots Beat Humans in Trading Battle. Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol. BBC.com (8 August 2001)
  296. ^ „CTO Corner: Artificial Intelligence Use in Financial Services – Financial Services Roundtable”. Financial Services Roundtable (în engleză). . Arhivat din original la . Accesat în . 
  297. ^ Marwala, Tshilidzi; Hurwitz, Evan (). Artificial Intelligence and Economic Theory: Skynet in the Market. London: Springer. ISBN 978-3-319-66104-9. 
  298. ^ „Why AI researchers like video games”. Arhivat din original la . 
  299. ^ Yannakakis, GN (2012, mai). Jocul AI revizuit. În Proceedings of the 9th Conference on Computing Frontiers (pp. 285-292). ACM.
  300. ^ „Getting to grips with military robotics”. The Economist (în engleză). . Accesat în . 
  301. ^ „Autonomous Systems: Infographic”. www.siemens.com (în engleză). Accesat în . 
  302. ^ Metz, Cade (). „Pentagon Wants Silicon Valley's Help on A.I”. The New York Times. Accesat în . 
  303. ^ Chang, Hsihui; Kao, Yi-Ching; Mashruwala, Raj; Sorensen, Susan M. (). „Technical Inefficiency, Allocative Inefficiency, and Audit Pricing”. Journal of Accounting, Auditing & Finance. 33 (4): 580–600. doi:10.1177/0148558X17696760. 
  304. ^ Matz, SC și colab. "Direcționarea psihologică ca o abordare eficientă a persuasiunii digitale în masă". Lucrări ale Academiei Naționale de Științe (2017): 201710966.
  305. ^ Busby, Mattha (). „Revealed: how bookies use AI to keep gamblers hooked”. the Guardian (în engleză). 
  306. ^ Celli, Fabio, Pietro Zani Massani și Bruno Lepri. Profilio: Profilul psihometric pentru a stimula publicitatea în mass-media socială. " Procesele din 2017 ACM pe Conferința Multimedia. ACM, 2017 [1]
  307. ^ https://www.moma.org/calendar/exhibitions/3863 Adus la 29 iulie 2018
  308. ^ https://www.washingtonpost.com/news/innovations/wp/2016/03/10/googles-psychedelic-paint-brush-raises-the-oldest-question-in-art/ Recuperat 29 iulie
  309. ^ „Unhuman: Art in the Age of AI – State Festival”. Statefestival.org. Accesat în . 
  310. ^ https://www.artsy.net/article/artsy-editorial-hard-painting-made-computer-human . Adus pe 29 iulie
  311. ^ https://dl.acm.org/citation.cfm?id=3204480.3186697 Adus la 29 iulie
  312. ^ Testul Turing :

    Publicația inițială a lui Turing:
  313. ^ Propunerea de la Dartmouth:
  314. ^ Ipoteza sistemelor simbolice fizice :
  315. ^ Dreyfus criticized the necessary condition of the physical symbol system hypothesis, which he called the "psychological assumption": "The mind can be viewed as a device operating on bits of information according to formal rules." (Dreyfus 1992, p. 156)
  316. ^ Dreptul lui Dreyfus asupra inteligenței artificiale :
  317. ^ Gödel 1951 : în această prelegere, Kurt Gödel folosește teorema incompletenței pentru a ajunge la următoarea disjuncție: (a) mintea umană nu este o mașină finită consistentă, sau (b) există ecuații Diophantine pentru care nu poate decide dacă există soluții. Gödel găsește (b) implauzibil și, astfel, pare să fi crezut că mintea umană nu este echivalentă cu o mașină finită, adică puterea sa depășește puterea oricărei mașini finite. El a recunoscut că aceasta a fost doar o presupunere, deoarece nu s-ar putea denunța niciodată (b). Cu toate acestea, el a considerat concluzia disjunctivă ca fiind un "fapt sigur".
  318. ^ Obiecția matematică:
  319. ^ Graham Oppy (). „Gödel's Incompleteness Theorems”. Stanford Encyclopedia of Philosophy. Accesat în . These Gödelian anti-mechanist arguments are, however, problematic, and there is wide consensus that they fail. 
  320. ^ Stuart J. Russell; Peter Norvig (). „26.1.2: Philosophical Foundations/Weak AI: Can Machines Act Intelligently?/The mathematical objection”. Artificial Intelligence: A Modern Approach (ed. 3rd). Upper Saddle River, NJ: Prentice Hall. ISBN 978-0-13-604259-4. even if we grant that computers have limitations on what they can prove, there is no evidence that humans are immune from those limitations. 
  321. ^ Mark Colyvan. O introducere în filosofia matematicii. Cambridge University Press , 2012. Din 2.2.2, "semnificația filosofică a rezultatelor incompletenței lui Gödel": "Înțelepciunea acceptată (cu care concur) este că argumentele Lucas-Penrose nu reușesc".
  322. ^ Russel, Stuart, Daniel Dewey și Max Tegmark. Priorități de cercetare pentru o inteligență artificială robustă și benefică. AI Magazine 36: 4 (2015). 8 decembrie 2016.
  323. ^ Rawlinson, Kevin (). „Microsoft's Bill Gates insists AI is a threat”. BBC News. Arhivat din original la . Accesat în . 
  324. ^ Holley, Peter (). „Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'. The Washington Post. ISSN 0190-8286. Arhivat din original la . Accesat în . 
  325. ^ Gibbs, Samuel (). „Elon Musk: artificial intelligence is our biggest existential threat”. The Guardian. Arhivat din original la . Accesat în . 
  326. ^ Post, Washington. „Tech titans like Elon Musk are spending $1 billion to save you from terminators”. Arhivat din original la . 
  327. ^ Müller, Vincent C.; Bostrom, Nick (). „Future Progress in Artificial Intelligence: A Poll Among Experts” (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. Arhivat din original (PDF) la . 
  328. ^ „The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers”. Tech Insider. Arhivat din original la . Accesat în . 
  329. ^ Clark, Jack. „Musk-Backed Group Probes Risks Behind Artificial Intelligence”. Bloomberg.com. Arhivat din original la . Accesat în . 
  330. ^ „Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research”. Fast Company. . Arhivat din original la . Accesat în . 
  331. ^ „Is artificial intelligence really an existential threat to humanity?”. Bulletin of the Atomic Scientists. . Arhivat din original la . Accesat în . 
  332. ^ „The case against killer robots, from a guy actually working on artificial intelligence”. Fusion.net. Arhivat din original la . Accesat în . 
  333. ^ „Will artificial intelligence destroy humanity? Here are 5 reasons not to worry”. Vox. . Arhivat din original la . Accesat în . 
  334. ^ In the early 1970s, Kenneth Colby presented a version of Weizenbaum's ELIZA known as DOCTOR which he promoted as a serious therapeutic tool. (Crevier 1993, pp. 132–144)
  335. ^ Joseph Weizenbaum critică AI:
  336. ^ https://www.channelnewsasia.com/news/commentary/artificial-intelligence-big-data-bias-hiring-loans-key-challenge-11097374
  337. ^ E McGaughey, "Robotii vă vor automatiza locul de muncă? Ocuparea integrală, venitul de bază și democrația economică "(2018) SSRN, partea 2 (3)
  338. ^ „Automation and anxiety”. The Economist. . Accesat în . 
  339. ^ Lohr, Steve (). „Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says”. The New York Times. Accesat în . 
  340. ^ Frey, Carl Benedikt; Osborne, Michael A (). „The future of employment: How susceptible are jobs to computerisation?”. Technological Forecasting and Social Change. 114: 254–280. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625. 
  341. ^ Arntz, Melanie, Terry Gregory și Ulrich Zierahn. "Riscul de automatizare a locurilor de muncă în țările OCDE: o analiză comparativă". Documentele de lucru socială, ocuparea forței de muncă și migrația din OCDE 189 (2016). p. 33.
  342. ^ Mahdawi, Arwa (). „What jobs will still be around in 20 years? Read this to prepare your future”. The Guardian. Accesat în . 
  343. ^ „Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence”. Observer. . Arhivat din original la . Accesat în . 
  344. ^ Wendell Wallach (2010). Moral Machines , Oxford University Press.
  345. ^ Wallach, pp. 37-54.
  346. ^ Wallach, pp. 55-73.
  347. ^ Wallach, Introducere capitol.
  348. ^ a b Michael Anderson și Susan Leigh Anderson (2011), Etica mașinilor, Cambridge University Press.
  349. ^ a b „Machine Ethics”. aaai.org. Arhivat din original la . 
  350. ^ Rubin, Charles (). „Artificial Intelligence and Human Nature |'The New Atlantis”. 1: 88–100. Arhivat din original la . 
  351. ^ Brooks, Rodney (). „artificial intelligence is a tool, not a threat”. Arhivat din original la . 
  352. ^ Chalmers, David (). „Facing up to the problem of consciousness”. Journal of Consciousness Studies. 2 (3): 200–219.  See also this link
  353. ^ Horst, Steven , (2005) "Teoria computațională a minții" în Enciclopedia de filosofie Stanford
  354. ^ Această versiune este de la Searle (1999) și este citată și în Dennett 1991 , p.   435. Formula originală a lui Searle a fost: "Calculatorul programat în mod adecvat este cu adevărat o minte, în sensul că calculatoarele care au dat programele potrivite pot fi literalmente spuse că înțeleg și au alte stări cognitive". ( Searle 1980 , p.   1). AI puternică este definită în mod similar de Russell & Norvig (2003 , p.   947): "Afirmația că mașinile ar putea să acționeze inteligent (sau, poate, mai bine, ar acționa ca și cum ar fi inteligente) se numește ipoteza" slaba AI "a filozofilor și afirmația că mașinile care o fac așa gândesc (spre deosebire de pentru a simula gândirea) se numește ipoteza "puternică AI". "
  355. ^ Argumentul camerei chineze a lui Searle:
  356. ^ Drepturile robotului :
  357. ^ Evans, Woody (). „Posthuman Rights: Dimensions of Transhuman Worlds”. Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072. 
  358. ^ maschafilm. „Content: Plug & Pray Film – Artificial Intelligence – Robots -”. plugandpray-film.de. Arhivat din original la . 
  359. ^ Omohundro, Steve (2008). Natura auto-imbunatatirii inteligentei artificiale . prezentat și distribuit la summitul Singularity din 2007, San Francisco, CA.
  360. ^ a b c Singularitatea tehnologică :
  361. ^ Transhumanismul :
  362. ^ AI ca evoluție:
  363. ^ Buttazzo, G. (iulie 2001). „Artificial consciousness: Utopia or real possibility?”. Computer (IEEE). 34 (7): 24–30. doi:10.1109/2.933500. 
  364. ^ Anderson, Susan Leigh. "Cele trei legi ale lui Asimov despre robotică" și metaetica mașinilor. " AI și societatea 22.4 (2008): 477-493.
  365. ^ McCauley, Lee (). „AI armageddon and the three laws of robotics”. Ethics and Information Technology. 9 (2): 153–164. doi:10.1007/s10676-007-9138-2. 
  366. ^ Galvan, Jill (). „Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"”. Science Fiction Studies. 24 (3): 413–429. JSTOR 4240644. 


Eroare la citare: Există etichete <ref> pentru un grup numit „lower-alpha”, dar nu și o etichetă <references group="lower-alpha"/>