Inteligență artificială: Diferență între versiuni

De la Wikipedia, enciclopedia liberă
Conținut șters Conținut adăugat
Linia 432: Linia 432:
=== Alte surse ===
=== Alte surse ===
 
 
{{refbegin|30em}}
* {{cite journal|ref=harv |last1=Asada |first1=M. |last2=Hosoda |first2=K. |last3=Kuniyoshi |first3=Y. |last4=Ishiguro |first4=H. |last5=Inui |first5=T. |last6=Yoshikawa |first6=Y. |last7=Ogino |first7=M. |last8=Yoshida |first8=C. |year=2009 |title=Cognitive developmental robotics: a survey |journal=IEEE Transactions on Autonomous Mental Development |volume=1 |issue=1 |pages=12–34 |doi=10.1109/tamd.2009.2021702 }}
* {{cite web
|ref = {{harvid|ACM|1998}}
|publisher = [[Association for Computing Machinery|ACM]]
|year = 1998
|title = ACM Computing Classification System: Artificial intelligence
|url = http://www.acm.org/class/1998/I.2.html
|accessdate = 30 August 2007
|deadurl = yes
|archiveurl = https://web.archive.org/web/20071012025921/http://www.acm.org/class/1998/I.2.html
|archivedate = 12 October 2007
|df = dmy-all
}}
* {{cite book |ref=harv
| last1=Goodman |first1=Joanna |author-link=Joanna Goodman
| year=2016
| title=Robots in Law: How Artificial Intelligence is Transforming Legal Services
| publisher=Ark Group |edition=1st
| isbn=978-1-78358-264-8
| url=https://www.ark-group.com/product/robots-law-how-artificial-intelligence-transforming-legal-services
}}
* {{cite encyclopedia
|ref=harv
|last=Albus
|first=J. S.
|year=2002
|pages=11–20
|title=4-D/RCS: A Reference Model Architecture for Intelligent Unmanned Ground Vehicles
|editor1-last=Gerhart
|editor-first=G.
|editor2-last=Gunderson
|editor2-first=R.
|editor3-last=Shoemaker
|editor3-first=C.
|encyclopedia=Proceedings of the SPIE AeroSense Session on Unmanned Ground Vehicle Technology
|volume=3693
|url=http://www.isd.mel.nist.gov/documents/albus/4DRCS.pdf
|archive-url=https://web.archive.org/web/20040725051856/http://www.isd.mel.nist.gov/documents/albus/4DRCS.pdf
|dead-url=yes
|archive-date=25 July 2004
|df=
|bibcode=2002SPIE.4715..303A
|doi=10.1117/12.474462
|citeseerx=10.1.1.15.14
|chapter=4D/RCS: A reference model architecture for intelligent unmanned ground vehicles
|series=Unmanned Ground Vehicle Technology IV
}}
* {{Cite book
| last = Aleksander | first= Igor | authorlink = Igor Aleksander
| year=1995
| title= Artificial Neuroconsciousness: An Update
| publisher=IWANN
| url = http://www.ee.ic.ac.uk/research/neural/publications/iwann.html
| archiveurl = https://web.archive.org/web/19970302014628/http://www.ee.ic.ac.uk/research/neural/publications/iwann.html
| archivedate = 2 March 1997
| ref = harv
}} [http://dblp.uni-trier.de/rec/bibtex/conf/iwann/Aleksander95 BibTex] {{webarchive |url=https://web.archive.org/web/19970302014628/http://www.ee.ic.ac.uk/research/neural/publications/iwann.html |date=2 March 1997}}.
* {{cite encyclopedia |ref=harv
| last=Bach |first=Joscha |year=2008 |pages=63–74
| title=Seven Principles of Synthetic Intelligence
| editor1-last=Wang |editor1-first=Pei |editor2-last=Goertzel |editor2-first=Ben |editor3-last=Franklin |editor3-first=Stan
| work=Artificial General Intelligence, 2008: Proceedings of the First AGI Conference
| publisher=IOS Press |isbn=978-1-58603-833-5
| url=https://books.google.com/books?id=a_ZR81Z25z0C&pg=PA63
}}
* {{cite news |ref={{harvid|''BBC News''|2006}}
| date=21 December 2006
| title=Robots could demand legal rights |work=BBC News
| url=http://news.bbc.co.uk/2/hi/technology/6200005.stm |accessdate=3 February 2011
}}
* {{cite journal |ref=harv
| last=Brooks |first=Rodney |authorlink=Rodney Brooks |year=1990
| title=Elephants Don't Play Chess
| journal=Robotics and Autonomous Systems |volume=6 | issue=1–2 |pages=3–15
| doi=10.1016/S0921-8890(05)80025-9
| url=http://people.csail.mit.edu/brooks/papers/elephants.pdf | archiveurl= https://web.archive.org/web/20070809020912/http://people.csail.mit.edu/brooks/papers/elephants.pdf
| archivedate=9 August 2007 |deadurl=no
| citeseerx=10.1.1.588.7539 }}
* {{cite encyclopedia |ref=harv
| last=Brooks |first=R. A. |year=1991 |pages=225–239
| title=How to build complete creatures rather than isolated cognitive simulators
| editor-last=VanLehn |editor-first=K.
| encyclopedia=Architectures for Intelligence |location=Hillsdale, NJ |publisher=Lawrence Erlbaum Associates
|citeseerx=10.1.1.52.9510}}
* {{cite journal
|ref=harv
|last=Buchanan
|first=Bruce G.
|year=2005
|pages=53–60
|title=A (Very) Brief History of Artificial Intelligence
|journal=AI Magazine
|url=http://www.aaai.org/AITopics/assets/PDF/AIMag26-04-016.pdf
|archiveurl=https://web.archive.org/web/20070926023314/http://www.aaai.org/AITopics/assets/PDF/AIMag26-04-016.pdf
|archivedate=26 September 2007
|deadurl=yes
|df=dmy
}}
* {{cite news |ref=harv
| last=Butler |first=Samuel |authorlink=Samuel Butler (novelist) |date=13 June 1863
| title=Darwin among the Machines
| newspaper=The Press |location=Christchurch, New Zealand |department=Letters to the Editor
| url=http://www.nzetc.org/tm/scholarly/tei-ButFir-t1-g1-t1-g1-t4-body.html |accessdate=16 October 2014
| via=Victoria University of Wellington
}}
* {{cite web |ref=harv
|url = https://www.bloomberg.com/news/articles/2015-12-08/why-2015-was-a-breakthrough-year-in-artificial-intelligence
|title = Why 2015 Was a Breakthrough Year in Artificial Intelligence
|last = Clark
|first = Jack
|website = Bloomberg News
|date = 8 December 2015
|access-date = 23 November 2016
|quote = After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever.
|deadurl = no
|archiveurl = https://web.archive.org/web/20161123053855/https://www.bloomberg.com/news/articles/2015-12-08/why-2015-was-a-breakthrough-year-in-artificial-intelligence
|archivedate = 23 November 2016
|df = dmy-all
}}
* {{cite news |ref={{harvid|''CNN''|2006}}
| title=AI set to exceed human brain power
| work=CNN |date=26 July 2006
| url=http://www.cnn.com/2006/TECH/science/07/24/ai.bostrom/
| archiveurl= https://web.archive.org/web/20080219001624/http://www.cnn.com/2006/TECH/science/07/24/ai.bostrom/
| archivedate=19 February 2008 |deadurl=no
}}
* {{cite book |ref=harv
| last=Dennett | first=Daniel | author-link=Daniel Dennett
| year=1991
| title=Consciousness Explained
| publisher=The Penguin Press
| isbn= 978-0-7139-9037-9
| title-link=Consciousness Explained }}
<!--* {{cite magazine |ref=harv
| last=Diamond |first=David |date=December 2003
| title=The Love Machine; Building computers that care
| magazine=Wired
| url=https://www.wired.com/wired/archive/11.12/love.html
| archiveurl= https://web.archive.org/web/20080518185630/http://www.wired.com/wired/archive/11.12/love.html
| archivedate=18 May 2008 |deadurl=no
}}
-->* {{cite book |ref=harv
|first1=Pedro |last1=Domingos |author-link=Pedro Domingos
|year=2015
|title=The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World
|publisher = Basic Books
|isbn=978-0-465-06192-1
|title-link=The Master Algorithm }}
* {{cite journal |ref=harv |last1=Dowe |first1=D. L. |last2=Hajek |first2=A. R. |year=1997 |title=A computational extension to the Turing Test |journal=Proceedings of the 4th Conference of the Australasian Cognitive Science Society |url=http://www.csse.monash.edu.au/publications/1997/tr-cs97-322-abs.html |deadurl=yes |archiveurl=https://web.archive.org/web/20110628194905/http://www.csse.monash.edu.au/publications/1997/tr-cs97-322-abs.html |archivedate=28 June 2011 |df=dmy-all }}
* {{cite book |ref=harv
| last=Dreyfus | first=Hubert | authorlink = Hubert Dreyfus
| year = 1972
| title = What Computers Can't Do
| publisher = MIT Press | location = New York
| isbn = 978-0-06-011082-6
| title-link=What Computers Can't Do }}
* {{cite book |ref=harv
| last=Dreyfus | first=Hubert | authorlink = Hubert Dreyfus
| last2 = Dreyfus | first2 = Stuart
| year = 1986
| title = Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer
| publisher = Blackwell | location = Oxford, UK
| isbn=978-0-02-908060-3
}}
* {{cite book |ref=harv
| last=Dreyfus | first=Hubert | authorlink = Hubert Dreyfus
| year =1992
| title = What Computers ''Still'' Can't Do
| publisher = MIT Press | location = New York
| isbn=978-0-262-54067-4
}}
* {{cite book |ref=harv
| last=Dyson |first=George |authorlink=George Dyson (science historian) |year=1998
| title=Darwin among the Machines
| publisher=Allan Lane Science |isbn=978-0-7382-0030-9
}}
* {{cite web|ref=harv |last=Edelman |first=Gerald |authorlink=Gerald Edelman |date=23 November 2007 |title=Gerald Edelman – Neural Darwinism and Brain-based Devices |url=http://lis.epfl.ch/resources/podcast/2007/11/gerald-edelman-neural-darwinism-and.html |publisher=Talking Robots |deadurl=yes |archiveurl=https://web.archive.org/web/20091008184132/http://lis.epfl.ch/resources/podcast/2007/11/gerald-edelman-neural-darwinism-and.html |archivedate=8 October 2009}}
* {{cite book |ref=harv
| last=Edelson |first=Edward |year=1991
| title=The Nervous System
| publisher=Chelsea House<!--so Worldcat, originally here Remmel Nunn--> |location=New York |isbn=978-0-7910-0464-7
}}
* {{cite book |ref=harv
| last=Fearn
| first = Nicholas
| year =2007
| title= The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers
| publisher = Grove Press
| location=New York |isbn=978-0-8021-1839-4
}}
* {{cite book |ref=harv
| last = Gladwell | first = Malcolm | authorlink= Malcolm Gladwell
| year = 2005
| title = Blink
| isbn = 978-0-316-17232-5
| publisher = Little, Brown and Co. | location = New York
| title-link = Blink (book) }}
* {{cite conference | ref=harv
| last=Gödel |first=Kurt |authorlink=Kurt Gödel |year=1951
| title=Some basic theorems on the foundations of mathematics and their implications
| conference=Gibbs Lecture
}} In<br /> {{cite book
| editor-last=Feferman |editor-first=Solomon |editorlink=Solomon Feferman |year=1995 |pages=304–23
| title=Kurt Gödel: Collected Works, Vol. III: Unpublished Essays and Lectures
| publisher=Oxford University Press |isbn=978-0-19-514722-3
}}
* {{cite book |ref=harv
| last=Haugeland | first=John | author-link = John Haugeland
| year = 1985
| title = Artificial Intelligence: The Very Idea
| publisher=MIT Press| location= Cambridge, Mass.
| isbn=978-0-262-08153-5
}}
* {{cite book |ref=harv
| last=Hawkins | first=Jeff | author-link=Jeff Hawkins
| last2=Blakeslee | first2=Sandra
| year=2005
| title=On Intelligence
| publisher=Owl Books | location=New York, NY
| isbn=978-0-8050-7853-4
| title-link=On Intelligence }}
* {{cite news |ref=harv
| last=Henderson |first=Mark |date=24 April 2007
| title=Human rights for robots? We're getting carried away
| url=http://www.thetimes.co.uk/tto/technology/article1966391.ece
| work=The Times Online | location=London
}}
* {{cite journal |ref=harv
| last=Hernandez-Orallo |first=Jose |year=2000
| title=Beyond the Turing Test
| journal=Journal of Logic, Language and Information |volume=9 |issue=4 |pages=447–466
| doi=10.1023/A:1008367325700
}}
* {{cite journal |ref=harv
| last1=Hernandez-Orallo |first1=J. |last2=Dowe |first2=D. L. |year=2010
| title=Measuring Universal Intelligence: Towards an Anytime Intelligence Test
| journal=Artificial Intelligence |volume=174 |issue=18 |pages=1508–1539
| doi=10.1016/j.artint.2010.09.006
|citeseerx=10.1.1.295.9079}}
* {{cite journal |ref=harv
| last=Hinton |first=G. E. |year=2007
| title=Learning multiple layers of representation
| journal=Trends in Cognitive Sciences |volume=11 | issue=10 |pages=428–434 | doi=10.1016/j.tics.2007.09.004
| pmid=17921042 }}
* {{cite book |ref=harv
| last=Hofstadter | first = Douglas | author-link = Douglas Hofstadter
| year = 1979
| title = Gödel, Escher, Bach: an Eternal Golden Braid
| isbn=978-0-394-74502-2
| publisher=Vintage Books
| location=New York, NY
| title-link=Gödel, Escher, Bach }}
* {{cite book |ref=harv
| last=Holland |first=John H. |year=1975
| title=Adaptation in Natural and Artificial Systems
| publisher=University of Michigan Press |isbn=978-0-262-58111-0
}}
* {{cite web |ref=harv
| first = J. | last = Howe
| date = November 1994
| title = Artificial Intelligence at Edinburgh University: a Perspective
| url=http://www.inf.ed.ac.uk/about/AIhistory.html | accessdate=30 August 2007
}}
* {{cite book |ref=harv
| last=Hutter |first=M. |year=2012
| title=Theoretical Foundations of Artificial General Intelligence
| chapter=One Decade of Universal Artificial Intelligence
| volume=4 | pages=67–88 |series=Atlantis Thinking Machines
| doi=10.2991/978-94-91216-62-6_5 |isbn=978-94-91216-61-9
| citeseerx=10.1.1.228.8725 }}
<!--* {{cite journal |ref=harv
| last=James |first=William |year=1884
| title=What is Emotion
| journal=Mind |volume=9 | issue=34 |pages=188–205 |doi=10.1093/mind/os-IX.34.188
}} Cited by {{harvnb|Tao|Tan|2005}}.
-->* {{cite book |ref=harv
| last=Kahneman | first=Daniel | author-link=Daniel Kahneman
| last2=Slovic | first2= D.
| last3=Tversky | first3=Amos | author3-link=Amos Tversky
| year=1982
| title=Judgment under uncertainty: Heuristics and biases
| publisher=Cambridge University Press | location=New York
| isbn=978-0-521-28414-1
}}
* {{cite journal |ref=harv
| last=Kaplan |first=Andreas
| last2=Haenlein | first2= Michael
|date=2018
| title=Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence
| journal=Business Horizons | volume=62 | pages=15–25 | doi=10.1016/j.bushor.2018.08.004 }}
* {{cite magazine |ref=harv
| last=Katz |first=Yarden |date=1 November 2012
| title=Noam Chomsky on Where Artificial Intelligence Went Wrong
| magazine=The Atlantic
| url=https://www.theatlantic.com/technology/archive/2012/11/noam-chomsky-on-where-artificial-intelligence-went-wrong/261637/?single_page=true |accessdate=26 October 2014
}}
* {{cite web |ref={{harvid|''Kismet''}}
| title=Kismet
| publisher=MIT Artificial Intelligence Laboratory, Humanoid Robotics Group
| url=http://www.ai.mit.edu/projects/humanoid-robotics-group/kismet/kismet.html |accessdate=25 October 2014
}}
* {{cite book |ref=harv
| last=Koza |first=John R. |year=1992
| title=Genetic Programming (On the Programming of Computers by Means of Natural Selection)
| publisher=MIT Press |isbn=978-0-262-11170-6
| bibcode=1992gppc.book.....K }}
<!--* {{cite web |ref=harv
| last=Kleine-Cosack |first=Christian |date=October 2006 |format=PDF
| title= Recognition and Simulation of Emotions
| url= http://ls12-www.cs.tu-dortmund.de//~fink/lectures/SS06/human-robot-interaction/Emotion-RecognitionAndSimulation.pdf
| archiveurl=https://web.archive.org/web/20080528135730/http://ls12-www.cs.tu-dortmund.de/~fink/lectures/SS06/human-robot-interaction/Emotion-RecognitionAndSimulation.pdf |archivedate=28 May 2008
}}
-->* {{Cite journal |ref=harv
| first = G. | last=Kolata
| year=1982
| title=How can computers get common sense?
| journal=Science | issue= 4566| pages=1237–1238
| doi = 10.1126/science.217.4566.1237
| volume = 217 |pmid=17837639
| bibcode=1982Sci...217.1237K}}
* {{cite journal |ref=harv
| last1=Kumar | first1=Gulshan
| last2=Kumar | first2=Krishan
| title=The Use of Artificial-Intelligence-Based Ensembles for Intrusion Detection: A Review
| journal=Applied Computational Intelligence and Soft Computing
| year=2012
| volume=2012
| pages=1–20
| doi=10.1155/2012/850160
}}
* {{cite book |ref=harv
| last=Kurzweil | first=Ray | author-link=Ray Kurzweil
| year=1999
| title=The Age of Spiritual Machines
| publisher=Penguin Books
| isbn=978-0-670-88217-5
| title-link=The Age of Spiritual Machines }}
* {{cite book |ref=harv
| last=Kurzweil | first=Ray | author-link=Ray Kurzweil
| year=2005
| title=The Singularity is Near
| publisher=Penguin Books
| isbn=978-0-670-03384-3
| title-link=The Singularity is Near }}
* {{cite book |ref=harv
| last=Lakoff | first=George | author-link=George Lakoff
| last2=Núñez | first2=Rafael E. | author2-link=Rafael E. Núñez| year=2000
| title=Where Mathematics Comes From: How the Embodied Mind Brings Mathematics into Being
| publisher=Basic Books
| isbn= 978-0-465-03771-1
| title-link=Where Mathematics Comes From }}
* {{Cite journal |ref=harv
| last1=Langley |first1=Pat |year=2011
| title=The changing science of machine learning
| journal=[[Machine Learning (journal)|Machine Learning]]
| volume=82 |issue=3 |pages=275–279
| doi=10.1007/s10994-011-5242-y
}}
* {{cite techreport |ref=harv
| last=Law |first=Diane |date=June 1994
| title=Searle, Subsymbolic Functionalism and Synthetic Intelligence
| institution=University of Texas at Austin |page=AI94-222
| citeseerx=10.1.1.38.8384
}}
* {{cite techreport |ref=harv
| last1=Legg |first1=Shane |last2=Hutter |first2=Marcus |date=15 June 2007
| title=A Collection of Definitions of Intelligence
| institution=[[IDSIA]] |number=07-07 |arxiv=0706.3639
|bibcode=2007arXiv0706.3639L}}
* {{cite book |ref=harv
| last=Lenat | first=Douglas | author-link=Douglas Lenat
| last2=Guha | first2=R. V.
| year = 1989
| title = Building Large Knowledge-Based Systems
| publisher = Addison-Wesley
| isbn=978-0-201-51752-1
}}
* {{Cite book |ref=harv
| last=Lighthill |first=James |author-link=James Lighthill |year=1973
| contribution= Artificial Intelligence: A General Survey
| title=Artificial Intelligence: a paper symposium
| publisher=Science Research Council
}}
* {{cite book |ref=harv
| last=Lucas | first= John | author-link = John Lucas (philosopher)
| year = 1961
| contribution=Minds, Machines and Gödel
| editor-last = Anderson | editor-first =A.R.
| title=Minds and Machines
| url = http://users.ox.ac.uk/~jrlucas/Godel/mmg.html | accessdate=30 August 2007
| archiveurl= https://web.archive.org/web/20070819165214/http://users.ox.ac.uk/~jrlucas/Godel/mmg.html| archivedate= 19 August 2007 | deadurl= no
}}
* {{cite journal |ref=harv
| last1=Lungarella |first1=M. |last2=Metta |first2=G. |last3=Pfeifer |first3=R. |last4=Sandini |first4=G. |year=2003
| title=Developmental robotics: a survey
| journal=Connection Science |volume=15 | issue=4 |pages=151–190 |citeseerx=10.1.1.83.7615 | doi=10.1080/09540090310001655110
}}
* {{cite web
|ref=harv
|last=Maker
|first=Meg Houston
|year=2006
|title=AI@50: AI Past, Present, Future
|location=Dartmouth College
|url=http://www.engagingexperience.com/2006/07/ai50_ai_past_pr.html
|archive-url=https://web.archive.org/web/20070103222615/http://www.engagingexperience.com/2006/07/ai50_ai_past_pr.html
|dead-url=yes
|archive-date=3 January 2007
|accessdate=16 October 2008
|df=
}}
* {{cite news |ref=harv
| last=Markoff |first=John | date=16 February 2011<!-- corrected 24 February 2011-->
| title=Computer Wins on 'Jeopardy!': Trivial, It's Not |work=The New York Times
| url=https://www.nytimes.com/2011/02/17/science/17jeopardy-watson.html |accessdate=25 October 2014
}}
* {{cite web | ref = harv | last1 = McCarthy | first1 = John | authorlink1 = John McCarthy (computer scientist) | last2 = Minsky | first2 = Marvin | authorlink2 = Marvin Minsky | last3 = Rochester | first3 = Nathan | authorlink3 = Nathan Rochester | last4 = Shannon | first4 = Claude | authorlink4 = Claude Shannon | year = 1955 | title = A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence | url = http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html | accessdate = 30 August 2007 | archiveurl = https://web.archive.org/web/20070826230310/http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html | archivedate = 26 August 2007 | deadurl = yes | df = dmy-all }}.
* {{cite journal |ref=harv
| last1 = McCarthy | first1 = John | author-link = John McCarthy (computer scientist)
| last2 = Hayes | first2=P. J.
| year = 1969
| title= Some philosophical problems from the standpoint of artificial intelligence
| journal =Machine Intelligence | volume= 4 | pages = 463–502
| url=http://www-formal.stanford.edu/jmc/mcchay69.html | accessdate=30 August 2007
| archiveurl= https://web.archive.org/web/20070810233856/http://www-formal.stanford.edu/jmc/mcchay69.html| archivedate= 10 August 2007 | deadurl= no| citeseerx=10.1.1.85.5082}}
* {{cite web
|ref = harv
|last = McCarthy
|first = John
|authorlink = John McCarthy (computer scientist)
|title = What Is Artificial Intelligence?
|date = 12 November 2007
|url = http://www-formal.stanford.edu/jmc/whatisai/whatisai.html
|deadurl = yes
|archiveurl = https://web.archive.org/web/20151118212402/http://www-formal.stanford.edu/jmc/whatisai/whatisai.html
|archivedate = 18 November 2015
|df = dmy-all
}}
* {{cite book |ref=harv
| last=Minsky | first=Marvin | author-link=Marvin Minsky
| year = 1967
| title = Computation: Finite and Infinite Machines
| publisher = Prentice-Hall | location=Englewood Cliffs, N.J.
| isbn=978-0-13-165449-5
}}
* {{cite book |ref=harv
| last=Minsky | first=Marvin | author-link=Marvin Minsky
| year = 2006
| title = The Emotion Machine
| publisher = Simon & Schusterl | location=New York, NY
| isbn=978-0-7432-7663-4
| title-link=The Emotion Machine }}
* {{cite book |ref=harv
| last=Moravec | first=Hans | author-link=Hans Moravec
| year = 1988
| title = Mind Children
| publisher = Harvard University Press
| isbn=978-0-674-57616-2
}}
* {{cite web |ref=harv
| last=Norvig |first=Peter |authorlink=Peter Norvig |date=25 June 2012<!--page metadata, last modified-->
| title=On Chomsky and the Two Cultures of Statistical Learning
| publisher=Peter Norvig
| url=http://norvig.com/chomsky.html
| archiveurl=https://web.archive.org/web/20141019223259/http://norvig.com/chomsky.html
| archivedate=19 October 2014 |deadurl=no
}}
* {{cite book |ref={{harvid|NRC|1999}}
| author=NRC (United States National Research Council) | authorlink=United States National Research Council
| year=1999
| chapter=Developments in Artificial Intelligence
| title=Funding a Revolution: Government Support for Computing Research
| publisher=National Academy Press
}}
* {{cite book |ref=harv
| last=Needham | first=Joseph | authorlink = Joseph Needham
| year=1986
| title=Science and Civilization in China: Volume 2
| publisher=Caves Books Ltd.
| title-link=Science and Civilization in China }}
* {{cite journal|ref=harv |last=Newell |first=Allen |author-link=Allen Newell |last2=Simon |first2=H. A. |authorlink2=Herbert A. Simon |year=1976 |title=Computer Science as Empirical Inquiry: Symbols and Search |journal=Communications of the ACM |volume=19 |issue=3 |doi=10.1145/360018.360022 |url=http://www.rci.rutgers.edu/~cfs/472_html/AI_SEARCH/PSS/PSSH4.html |pages=113–126 |deadurl=yes |archiveurl=https://web.archive.org/web/20081007162810/http://www.rci.rutgers.edu/~cfs/472_html/AI_SEARCH/PSS/PSSH4.html |archivedate=7 October 2008}}.
* {{Cite journal |ref=harv
| last=Nilsson |first=Nils |author-link = Nils Nilsson (researcher) |year=1983
| title=Artificial Intelligence Prepares for 2001
| journal=AI Magazine |volume=1 |number=1
| url=http://ai.stanford.edu/~nilsson/OnlinePubs-Nils/General%20Essays/AIMag04-04-002.pdf
}} Presidential Address to the [[Association for the Advancement of Artificial Intelligence]].
* {{cite book |ref=harv
| last1=O'Brien |first1=James |last2=Marakas |first2=George |year=2011
| title=Management Information Systems |publisher=McGraw-Hill/Irwin |edition=10th
| isbn=978-0-07-337681-3
}}
* {{cite journal |ref=harv
| last=O'Connor |first=Kathleen Malone |year=1994
| title=The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam
| pages=1–435 | publisher=University of Pennsylvania
| url=http://repository.upenn.edu/dissertations/AAI9503804
}}
* {{cite journal |ref=harv
| last=Oudeyer |first=P-Y. |year=2010
| title=On the impact of robotics in behavioral and cognitive sciences: from insect navigation to human cognitive development
| journal=IEEE Transactions on Autonomous Mental Development |volume=2 |issue=1 |pages=2–16
| url=http://www.pyoudeyer.com/IEEETAMDOudeyer10.pdf | doi=10.1109/tamd.2009.2039057
}}
* {{cite book |ref=harv
| last=Penrose |first=Roger |author-link=Roger Penrose |year=1989
| title=The Emperor's New Mind: Concerning Computer, Minds and The Laws of Physics
| publisher=[[Oxford University Press]]
| isbn=978-0-19-851973-7
}}
<!--* {{cite techreport |ref=harv
| last=Picard |first=Rosalind |authorlink=Rosalind Picard |year=1995
| title=Affective Computing |institution=MIT |number=321
| url=http://affect.media.mit.edu/pdfs/95.picard.pdf
| laysource=Abstract |layurl=http://vismod.media.mit.edu/pub/tech-reports/TR-321-ABSTRACT.html
}}
-->* {{cite book |ref=harv
| last1=Poli |first1=R. |last2=Langdon |first2=W. B. |last3=McPhee |first3=N. F. |year=2008
| title=A Field Guide to Genetic Programming |publisher=Lulu.com |isbn=978-1-4092-0073-4
| url=http://www.gp-field-guide.org.uk/ |via=gp-field-guide.org.uk
}}
* {{cite journal
|ref=harv
|last=Rajani
|first=Sandeep
|year=2011
|title=Artificial Intelligence – Man or Machine
|journal=International Journal of Information Technology and Knowledge Management
|volume=4
|issue=1
|pages=173–176
|url=http://www.csjournals.com/IJITKM/PDF%204-1/35.Sandeep%20Rajani.pdf
|deadurl=yes
|archiveurl=https://web.archive.org/web/20130118095844/http://www.csjournals.com/IJITKM/PDF%204-1/35.Sandeep%20Rajani.pdf
|archivedate=18 January 2013
|df=
}}
* Ronald, E. M. A. and Sipper, M. [https://drive.google.com/file/d/0B6G3tbmMcpR4TFdHSXNFWUtlNWc/view?usp=sharing Intelligence is not enough: On the socialization of talking machines, Minds and Machines], vol. 11, no. 4, pp.&nbsp;567–576, November 2001.
* Ronald, E. M. A. and Sipper, M. [https://drive.google.com/file/d/0B6G3tbmMcpR4VnpOX0xxazFNbjA/view?usp=sharing What use is a Turing chatterbox?], Communications of the ACM, vol. 43, no. 10, pp.&nbsp;21–23, October 2000.
* {{Cite journal
|ref=harv
|last=Searle
|first=John
|author-link=John Searle
|year=1980
|title=Minds, Brains and Programs
|journal=Behavioral and Brain Sciences
|volume=3
|issue=3
|pages=417–457
|url=http://www.bbsonline.org/documents/a/00/00/04/84/bbs00000484-00/bbs.searle2.html
|doi=10.1017/S0140525X00005756
|deadurl=yes
|archiveurl=https://web.archive.org/web/20100118120034/http://www.bbsonline.org/documents/a/00/00/04/84/bbs00000484-00/bbs.searle2.html
|archivedate=18 January 2010
|df=
}}
* {{cite book |ref=harv
| last=Searle | first=John | author-link=John Searle
| year = 1999
| title = Mind, language and society
| publisher = Basic Books | location = New York, NY
| isbn = 978-0-465-04521-1 | oclc = 231867665
}}
* {{cite book |ref=harv
| last=Shapiro | first= Stuart C. | editor-first=Stuart C. | editor-last=Shapiro
| year=1992
| contribution=Artificial Intelligence
| title=Encyclopedia of Artificial Intelligence | edition=2nd | pages=54–57
| url=http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf
| publisher= John Wiley | location=New York
| isbn=978-0-471-50306-4
}}
* {{cite book |ref=harv
| last=Simon | first = H. A. | author-link=Herbert A. Simon
| year = 1965
| title=The Shape of Automation for Men and Management
| publisher = Harper & Row | location = New York
}}
* {{cite web |ref=harv
| last=Skillings | first=Jonathan
| url=http://news.cnet.com/Getting-machines-to-think-like-us/2008-11394_3-6090207.html
| title=Getting Machines to Think Like Us
| work=cnet
| date=3 July 2006
| accessdate=3 February 2011
}}
* {{cite conference |ref=harv
| last=Solomonoff |first=Ray |authorlink=Ray Solomonoff |year=1956
| title=An Inductive Inference Machine
| conference=Dartmouth Summer Research Conference on Artificial Intelligence
| url=http://world.std.com/~rjs/indinf56.pdf |via=std.com, pdf scanned copy of the original
}} Later published as<br />{{cite book
| last=Solomonoff |first=Ray |year=1957 |pages=56–62
| chapter=An Inductive Inference Machine
| title=IRE Convention Record |volume=Section on Information Theory, part 2
}}
* {{cite conference |ref=harv
| last=Tao |first=Jianhua |first2=Tieniu |last2=Tan |year=2005
| conference=Affective Computing: A Review
| booktitle=Affective Computing and Intelligent Interaction |volume=[[LNCS]] 3784 |pages=981–995
|publisher=Springer |doi=10.1007/11573548
}}
* {{cite journal |ref=harv
| last=Tecuci |first=Gheorghe |date=March–April 2012
| title=Artificial Intelligence
| journal=Wiley Interdisciplinary Reviews: Computational Statistics
| volume=4 |issue=2 |pages=168–180 |doi=10.1002/wics.200
}}
* {{cite book |ref=harv
| last=Thro |first=Ellen |year=1993
| title=Robotics: The Marriage of Computers and Machines
| location=New York |publisher=Facts on File |isbn=978-0-8160-2628-9
}}
* {{Turing 1950}}.
* {{cite web
|ref=harv
|last=van der Walt
|first=Christiaan
|last2=Bernard
|first2=Etienne
|year=2006
|title=Data characteristics that determine classifier performance
|url=http://www.patternrecognition.co.za/publications/cvdwalt_data_characteristics_classifiers.pdf
|accessdate=5 August 2009
|deadurl=yes
|archiveurl=https://web.archive.org/web/20090325194051/http://www.patternrecognition.co.za/publications/cvdwalt_data_characteristics_classifiers.pdf
|archivedate=25 March 2009
|df=
}}
* {{cite journal | ref=harv
| last=Vinge | first=Vernor | authorlink=Vernor Vinge
| year=1993
| title=The Coming Technological Singularity: How to Survive in the Post-Human Era
| journal=Vision 21: Interdisciplinary Science and Engineering in the Era of Cyberspace | pages=11 | url=http://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html
| bibcode=1993vise.nasa...11V }}
* {{cite book |ref=harv
| last1=Wason | first1=P. C. | author-link=Peter Cathcart Wason
| last2=Shapiro | first2=D.
| editor=Foss, B. M.
| year=1966
| title=New horizons in psychology
| location=Harmondsworth | publisher=Penguin
| chapter=Reasoning
}}
* {{cite book |ref=harv
| last=Weizenbaum | first = Joseph | authorlink=Joseph Weizenbaum
| year = 1976
| title = Computer Power and Human Reason
| publisher = W.H. Freeman & Company | location = San Francisco
| isbn = 978-0-7167-0464-5
| title-link=Computer Power and Human Reason }}
* {{cite journal |ref=harv
| last1=Weng |first1=J. |last2=McClelland |last3=Pentland |first3=A. |last4=Sporns |first4=O.
| last5=Stockman |first5=I. |last6=Sur |first6=M. |last7=Thelen |first7=E. |year=2001
| url=http://www.cse.msu.edu/dl/SciencePaper.pdf |via=msu.edu | doi= 10.1126/science.291.5504.599
| pmid=11229402 | title=Autonomous mental development by robots and animals |journal=Science |volume=291 | issue=5504 |pages=599–600
}}
* {{cite web |ref=harv
|url=http://www-formal.stanford.edu/jmc/whatisai/node3.html
|title=Applications of AI
|website=www-formal.stanford.edu
|access-date=25 September 2016}}
{{refend}}


== Lectură suplimentară ==
== Lectură suplimentară ==

Versiunea de la 18 martie 2019 15:05

În informatică, inteligența artificială (IA) este inteligența expusă de mașini, spre deosebire de inteligența naturală, expusă de oameni și de unele animale. Informatica definește cercetarea IA ca studiu al „agenților inteligenți”: orice dispozitiv care își percepe mediul și efectuează acțiuni care maximizează șansa de a-și atinge cu succes obiectivele.[1] Mai exact, Kaplan și Haenlein definesc IA ca fiind „capacitatea unui sistem de a interpreta corect datele externe, de a învăța din astfel de date și de a folosi ceea ce a învățat pentru a-și atinge obiective și sarcini specifice printr-o adaptare flexibilă”.[2] Termenul „inteligență artificială” este utilizat colocvial pentru a descrie mașinile care imită funcțiile „cognitive” pe care le asociază oamenii cu alte minți umane, cum ar fi „învățarea” și „rezolvarea problemelor”.[3]

Întrucât mașinile devin din ce în ce mai capabile, sarcinile considerate a necesita „inteligență” sunt deseori eliminate din definiția IA, un fenomen cunoscut sub numele de efectul IA. O observație în teorema lui Tesler spune că „IA este ceea ce nu a fost încă făcut”.[4] De exemplu, recunoașterea optică a caracterelor este adesea exclusă din domeniul AI, după ce a devenit o tehnologie de rutină.[5] Capacitățile moderne ale mașinilor clasificate în general ca IA includ înțelegerea vorbirii umane,[6] concurarea la cel mai înalt nivel a unor sisteme de jocuri de strategie (cum ar fi șah și go),[7] autovehiculele autonome și rutarea inteligentă în rețelele de distribuție a conținutului, și simulările militare.

Împrumutând din literatura de management, Kaplan și Haenlein clasifica inteligență artificială în trei tipuri diferite de sisteme IA: inteligență artificială analitică, inspirată de om, și umanizată.[2] IA analitică are doar unele caracteristici compatibile cu inteligența cognitivă; ea generează o reprezentare cognitivă a lumii și utilizează învățarea bazată pe experiențe anterioare pentru a informa deciziile viitoare. IA inspirată de om are elemente din inteligența cognitivă și emoțională; înțelegerea emoțiilor umane, în plus față de elementele cognitive, și luarea în considerare a acestora în luarea deciziilor. IA umanizată prezintă caracteristicile tuturor tipurilor de competențe (de exemplu, inteligența cognitivă, emoțională și socială), este capabilă să fie conștientă de sine atât ca atare, cât și în interacțiunile cu ceilalți.

Inteligența artificială a fost fondată ca disciplină academică în 1956, și de atunci a trecut mai multe valuri de optimism,[8][9] urmate de dezamăgiri și pierderi de fonduri (cunoscute sub numele de „ierni ale IA”),[10][11] urmate și ele de noi abordări, succes și reînnoirea finanțării.[9][12] Pentru cea mai mare parte a istoriei sale, cercetarea IA a fost împărțită în subdomenii care adesea nu au reușit să comunice între ele.[13] Aceste subdomenii se bazează pe considerații tehnice, cum ar fi obiective specifice (de exemplu, „robotica” sau „învățarea automată”),[14] utilizarea unor anumite instrumente („logica” sau rețele neurale artificiale) sau pe diferențe filosofice profunde.[15][16][17] Subdomeniile se bazau și pe factori sociali (anumite instituții sau activitatea anumitor cercetători). [13]

Printre problemele (sau obiectivele) tradiționale ale cercetării IA se numără raționamentul, reprezentarea cunoștințelor, planificarea, învățarea, prelucrarea limbajului natural, percepția și capacitatea de a muta și manipula obiecte.[14] Inteligența generală se numără printre obiectivele pe termen lung ale domeniului.[18] Abordările includ metode statistice, inteligență computațională și IA simbolică tradițională. În AI se folosesc multe instrumente, între care versiuni de optimizare matematică și de căutare, rețele neurale artificiale și metode bazate pe statistici, probabilități și economie. Domeniul IA se bazează pe informatică, inginerie informațională, matematică, psihologie, lingvistică, filozofie și multe alte domenii.

Domeniul a fost întemeiat pe afirmația că inteligența umană „poate fi descrisă atât de precis încât poate fi făcută o mașină pentru a o simula”.[19] Acest lucru ridică argumente filosofice cu privire la natura minții și la etica creării de ființe artificiale dotate cu inteligență umană, care sunt chestiuni care au fost explorate de mit, ficțiune și filozofie încă din Antichitate.[20] Unii oameni consideră și că IA ar fi un pericol pentru omenire dacă progresează necontrolat.[21] Alții cred că, spre deosebire de revoluțiile tehnologice anterioare, IA va crea un risc de șomaj în masă. [22]

În secolul al XXI-lea, tehnicile de IA au înregistrat o renaștere în urma unor progrese concomitente în puterea de calcul, acumulării de cantități mari de date, și înțelegerii teoretice; iar tehnicile IA au devenit o parte esențială a industriei tehnologice, ajutând la rezolvarea multor probleme dificile în domeniul informaticii, ingineriei software și cercetării operaționale.[23][12]

Istorie

Fișier:Medeia and Talus.png
Talos, un automat mitic cu inteligență artificială din Antichitate

Ființele artificiale capabile de gândire apăreau în antichitate ca tehnici narative[24] și au fost obișnuite în ficțiune, ca în Frankenstein al lui Mary Shelley sau RUR (Rossum's Universal Robots) al lui Karel Čapek.[25] Aceste personaje și destinul lor au ridicat multe din aceleași probleme discutate acum în etica inteligenței artificiale.[20]

Studiul raționamentului „formal” (mecanic) a început cu filozofii și matematicienii din Antichitate. Studiul logicii matematice a condus direct la teoria computației a lui Alan Turing, care sugera că o mașină, amestecând simboluri simple ca „0” și „1”, ar putea simula orice acțiune de deducție matematică posibilă. Această observație, că calculatoarele numerice pot simula orice proces de raționament formal, este cunoscută sub numele de teza Church-Turing.[26] Odată cu descoperirile concurente din neurobiologie, teoria informației și cibernetică, cercetătorii au luat în considerare posibilitatea creării unui creier electronic. Turing a sugerat că „dacă un om nu ar putea distinge între răspunsurile unei mașini și cele ale unui om, atunci mașina ar putea fi considerată «inteligentă»”.[27] Prima lucrare care este acum recunoscută în general ca fiind de IA a fost „neuronii artificiali” Turing-compleți ai lui McCullouch și Pitts.[28]

Domeniul cercetării IA s-a născut la un workshop la Colegiul Dartmouth în 1956.[29] Participantii Allen Newell (CMU), Herbert Simon (CMU), John McCarthy (MIT), Marvin Minsky (MIT) și Arthur Samuel (IBM) au devenit fondatorii și liderii cercetarii IA.[30] Ei și studenții lor au produs programe pe care presa le-a descris ca fiind „uimitoare“:[31] calculatoarele învățau strategii de dame (c . 1954)[32] (și până în 1959 ajunseseră să joace mai bine decât media jucătorilor umani),[33] să rezolve probleme de algebră, să demonstreze teoreme logice (Logic Theorist, prima rulare c. 1956) și să vorbească în engleză.[34] Până la mijlocul anilor 1960, cercetarea în SUA a fost finanțată în mare măsură de Departamentul Apărării,[35] și s-au înființat laboratoare în întreaga lume.[36] Fondatorii IA erau optimiști în privința viitorului: Herbert Simon prezicea: „mașinile vor fi capabile, în decurs de douăzeci de ani, să facă orice lucru poate face un om”. Marvin Minsky era de acord, scriind: „într-o generație... problema creării «inteligenței artificiale» va fi rezolvată substanțial”.[8]

Ei nu puteau însă identifica dificultatea unor sarcini rămase de realizat. Progresul a încetinit, iar în 1974, în urma criticii lui Sir James Lighthill[37] și a presiunii continue a Congresului SUA de a finanța proiecte mai productive, guvernele american și britanic au întrerupt cercetarea exploratorie în IA. Următorii câțiva ani aveau mai târziu să fie numiți „iarna IA”,[10] o perioadă în care obținerea de finanțare pentru proiectele de IA a fost dificilă.

La începutul anilor 1980, cercetarea IA a fost revitalizată de succesul comercial al unor sisteme expert,[38] o formă de programe IA care simulau cunoștințele și abilitățile analitice ale experților umani. Până în 1985, piața pentru IA a ajuns la peste un miliard de dolari. În același timp, proiectul japonez de calculator de generația a cincea a inspirat guvernele american și britanic să reînceapă finanțarea cercetării academice.[9] Cu toate acestea, începând cu prăbușirea pieței de mașini Lisp în 1987, IA a căzut din nou în dizgrație și a început o a doua pauză de durată.[11]

La sfârșitul anilor 1990 și începutul secolului al XXI-lea, IA a început să fie folosită pentru logistică, data mining, diagnostic medical și în alte domenii.[23] Succesul s-a datorat creșterii puterii de calcul (vezi Legea lui Moore), accentului mai mare pus pe rezolvarea problemelor specifice, legături noi între IA și alte domenii (cum ar fi statistica, economia și matematica) și angajamentul cercetătorilor față de metodele matematice și standardele științifice.[39] Deep Blue a devenit primul sistem de joc de șah pe calculator care l-a învins pe campionul mondial de șah, Garry Kasparov, la . [40]

În 2011, la o emisiune-concurs Jeopardy!, într-un meci demonstrativ, sistemul de răspuns la întrebări al IBM, Watson, i-a învins detașat pe cei mai mari doi campioni la Jeopardy!, Brad Rutter și Ken Jennings.[41] Calculatoarele mai rapide, îmbunătățirile algoritmice și accesul la cantități mari de date au permis progresul învățării automate și percepției mașinilor; metodele de învățare profundă mari consumatoare de date au început să domine testele de acuratețe prin jurul anului 2012.[42] Kinect, care oferă o interfață 3D de mișcare corporală pentru Xbox 360 și Xbox One, utilizează algoritmi care au rezultat din îndelungate cercetări de IA,[43] la fel ca asistenții personali inteligenți din smartphone-uri.[44] În martie 2016, AlphaGo a câștigat 4 din 5 jocuri de go într-un meci cu campionul la go Lee Sedol, devenind primul sistem de joc go care a învins un jucător profesionist de go fără handicap.[7][45] La Future of Go Summit din 2017, AlphaGo a câștigat un meci de trei jocuri cu Ke Jie,[46] care la acea vreme deținea locul 1 în clasamentul mondial de clasament de doi ani.[47][48] Acest lucru a marcat finalizarea unui reper important în dezvoltarea inteligenței artificiale, deoarece go este un joc extrem de complex, mult mai complex decât șahul.

Potrivit lui Jack Clark de la Bloomberg, anul 2015 a fost un an de referință pentru inteligența artificială, numărul de proiecte software care utilizează IA la Google crescând de „utilizare sporadică” în 2012 la peste 2.700 de proiecte. Clark prezintă, de asemenea, date factuale care indică faptul că ratele de eroare din software-ul de procesare a imaginilor au scăzut semnificativ începând cu 2011.[49] El atribuie acest lucru unei creșteri a rețelelor neurale accesibile, datorită creșterii infrastructurii de cloud computing și a creșterii numărului de instrumente și seturi de date pentru cercetare.[12] Alte exemple menționate includ dezvoltarea de către Microsoft a unui sistem Skype care poate traduce automat dintr-o limbă în alta și sistemul Facebook care poate descrie imaginile pentru nevăzători.[49] Într-un sondaj din 2017, una din cinci companii a raportat că „a încorporat IA în anumite oferte sau procese”.[50][51] În preajma lui 2016, China a accelerat foarte mult finanțarea guvernamentală; având în vedere cantitatea mare de date disponibilă acolo și producția sa de cercetare în creștere rapidă, unii observatori consideră că ar putea fi pe cale să devină o „superputere IA”.[52][53]

Elementele de bază

O IA tipică își analizează mediul și efectuează acțiuni care îi maximizează șansele de succes.[1] Funcția utilitate (sau obiectiv) dorită pentru o OA poate fi simplă („1 dacă IA câștigă jocul de go, 0 în caz contrar”) sau complexă („efectuează acțiuni matematic asemănătoare celor care au reușit în trecut”). Obiectivele pot fi definite explicit sau induse. Dacă IA este programată pentru „învățarea prin întărire”, obiectivele pot fi induse implicit prin recompensarea unor tipuri de comportament sau prin pedepsirea altora.[a] Alternativ, un sistem evolutiv poate induce scopuri prin folosirea unei funcții de fitness pentru a muta și replica în mod preferențial sistemele AI cu scoruri mari, similar cu modul în care animalele au evoluat pentru a-și dori în mod inerent anumite obiective, cum ar fi găsirea de alimente. [54] Unele sisteme AI, cum ar fi cel mai apropiat vecin, în loc de rațiune prin analogie, aceste sisteme nu au scopuri generale, cu excepția cazului în care scopurile sunt implicite în datele lor de instruire. [55] Astfel de sisteme pot fi încă evaluate, dacă sistemul non-goal este încadrat ca un sistem al cărui "scop" este de a-și îndeplini cu succes sarcina îngustă de clasificare. [56]

IA gravitează adesea în jurul utilizării algoritmilor. Un algoritm este un set de instrucțiuni neechivoce pe care un calculator mecanic le poate executa.[b] Un algoritm complex este adesea construit pe baza altor algoritmi mai simpli. Un exemplu simplu al unui algoritm este următoarea rețetă (optimă pentru primul jucător) la jocul de X și 0:[57]

  1. Dacă cineva „amenință” (adică are două pe rând), ocupă pătratul rămas. In caz contrar,
  2. dacă o mișcare „ramifică” pentru a crea două amenințări simultan, joacă această mișcare. În caz contrar,
  3. ocupă pătratul central dacă acesta este liber. În caz contrar,
  4. dacă adversarul a jucat într-un colț, ocupă colțul opus. În caz contrar,
  5. ocupă un colț gol dacă există unul. În caz contrar,
  6. ocupă orice pătrat gol.

Mulți algoritmi IA sunt capabili să învețe din date; se pot îmbunătăți prin învățarea unor noi euristici (strategii sau „reguli generale”, care au funcționat bine în trecut) sau pot scrie alți algoritmi. Unii dintre „învățăceii” descriși mai jos, între care rețelele bayesiene, arborii de decizie și cel mai apropiat vecin, ar putea teoretic (dacă dispun de date, timp și memorie infinite) să învețe să aproximeze orice funcție, inclusiv combinația de funcții matematice care ar descrie cel mai bine lumea. Prin urmare, acești cursanți ar putea să obțină toate cunoștințele posibile, luând în considerare toate ipotezele posibile și potrivindu-le cu datele. În practică, aproape niciodată nu se poate lua în considerare orice posibilitate, din cauza fenomenului de „explozie combinatorică”, în care timpul necesar pentru a rezolva o problemă crește exponențial. O mare parte din cercetarea de IA implică determinarea modului de identificare și de evitare a unei game largi de posibilități care sunt puțin probabil să fie benefice.[58][59] De exemplu, atunci când se vizualizează o hartă și se caută pentru cel mai scurt drum care duce de la Denver la New York, în cele mai multe cazuri, se poate sări peste orice drum prin San Francisco sau alte zone aflate mult la vest; astfel, o IA care utilizează un algoritm de trasare a traiectoriei ca A* poate evita explozia combinatorie care ar rezulta dacă ar trebui calculat fiecare traseu posibil în parte.[60]

Cea mai veche abordare de IA a fost simbolismul (cum ar fi logica formală): „Dacă un adult altfel sănătos are febră, atunci poate să aibă gripă”. O a doua abordare, mai generală, este inferența bayesiană: „Dacă pacientul curent are febră, ajustează probabilitatea ca acesta să aibă gripă așa sau așa”. Cea de-a treia abordare majoră, extrem de populară în aplicațiile de IA de afaceri de rutină, sunt analogizatori precum SVM și cel mai apropiat vecin: „După examinarea înregistrărilor despre pacienți cunoscuți din trecut, a căror temperatură, simptome, vârstă și alți factori se potrivesc cel mai mult cu pacientul actual, acei pacienți s-au dovedit a avea gripă”. O a patra abordare este mai greu de înțeles intuitiv, dar este inspirată de felul în care funcționează mecanismul creierului: abordarea cu rețele neurale artificiale folosește „neuroni” artificiali care pot învăța prin compararea cu rezultatul dorit și modificând punctele tari ale conexiunilor dintre neuronii săi interni pentru a „întări” conexiunile care par astfel utile. Aceste patru abordări principale se pot suprapune între ele și cu sisteme evolutive; de exemplu, rețelele neurale pot învăța să facă inferențe, să generalizeze și să facă analogii. Unele sisteme utilizează, implicit sau explicit, mai multe dintre aceste abordări, alături de mulți alți algoritmi de IA și non-IA; [61] adesea, cea mai bună abordare diferă în funcție de problemă.[62][63]

Linia albastră ar putea fi un exemplu de overfitting a unei funcții liniare din cauza zgomotului aleatoriu.

Algoritmii de învățare funcționează pe baza faptului că strategiile, algoritmii și inferențele care au funcționat bine în trecut vor continua să funcționeze bine și în viitor. Aceste concluzii pot fi evidente, cum ar fi „întrucât soarele a răsărit în fiecare dimineață pentru ultimele 10.000 de zile, probabil că va răsări și mâine dimineață”. Ele pot fi nuanțate, cum ar fi „X% din familii au specii separate din punct de vedere geografic cu variante de culoare, deci există o șansă de Y% să existe lebede negre încă nedescoperite”. Mașinile de învățare lucrează și pe baza „briciului lui Occam”: cea mai simplă teorie care explică datele este cea mai probabilă. Prin urmare, pentru a avea succes, o mașină care învață trebuie concepută astfel încât să prefere teoriile mai simple celor mai complexe, cu excepția cazurilor în care teoria complexă se dovedește a fi substanțial mai bună. Blocarea pe o teorie foarte complexă, dar proastă, care se potrivește cu toate datele de învățare din trecut, se numește overfitting. Multe sisteme încearcă să reducă overfittingul recompensând o teorie în funcție de cât de bine se potrivește cu datele, dar și penalizând-o în funcție de cât de complexă este.[64] Pe lângă suprapunerea clasică, mașinile pot dezamăgi și „învățând lecția greșită”. Un exemplu este un clasificator de imagini antrenat numai pe imagini de cai maro și pisici negre ar putea concluziona că toate petecele de culoare brună ar putea fi cai.[65] Un exemplu din lumea reală este că, spre deosebire de oameni, clasificatoarele de imagine actualee nu determină relația spațială dintre componentele imaginii; în schimb, ele învață modele abstracte de pixeli pe care oamenii le ignoră, dar care se corelează liniar cu imaginile anumitor tipuri de obiecte reale. Suprapunând superficial un astfel de model pe o imagine legitimă are drept rezultat o imagine „contradictorie” pe care sistemul nu o poate clasifica.[c][66][67][68]

Un sistem de conducere automată poate folosi o rețea neurală pentru a determina care părți ale imaginii par să se potrivească cu imaginile anterioare de pietoni din procesul de antrenare și apoi să modeleze acele zone ca niște prisme dreptunghiulare care se mișcă încet, dar întrucâtva imprevizibile, și care trebuie evitate.[69][70]

În comparație cu oamenii, IA existente nu dispun de mai multe trăsături ale „raționamentului de bun simț”; cel mai notabil, oamenii au mecanisme puternice pentru a raționa despre „fizica naivă”, cum ar fi spațiul, timpul și interacțiunile fizice. Aceasta permite chiar copiilor mici să tragă ușor concluzii cum ar fi „dacă rostogolesc pixul acest de pe masă, va cădea pe podea”. Oamenii au, de asemenea, un mecanism puternic de „psihologie populară”, care îi ajută să interpreteze propozițiile în limbaj natural precum „consilierii locali au refuzat autorizarea unei demonstrații pentru că aceasta militează pentru violență”. (O IA generică are dificultăți în a deduce dacă consilierii sau demonstranții sunt cei care pretind că susțin violența.)[71][72][73] Această lipsă de „cultură generală” înseamnă că IA face deseori alte greșeli decât cele ale oamenilor, în moduri care pot părea de neînțeles. De exemplu, autovehiculele autonome existente nu pot raționa cu privire la locația și intențiile pietonilor exact așa cum fac oamenii, iar în schimb trebuie să utilizeze moduri de gândire neumane pentru a evita accidentele.[74][75][76]

Probleme

Scopul general al cercetării inteligenței artificiale este de a crea o tehnologie care să permită calculatoarelor și mașinilor să funcționeze într-o manieră inteligentă. Problema generală a simulării (sau a creării) inteligenței a fost împărțită în subprobleme. Acestea constau în particularități sau capacități pe care cercetătorii se așteaptă să le prezinte unui sistem inteligent. Caracteristicile descrise mai jos au primit cea mai mare atenție.[14]

Motivarea, rezolvarea problemelor

Cercetătorii timpurii au dezvoltat algoritmi care imită pas cu pas raționamentul pe care oamenii îl folosesc atunci când rezolvă puzzle-uri sau fac deduceri logice.[77] Până la sfârșitul anilor 1980 și 1990, cercetarea IA a elaborat metode de abordare a informațiilor incerte sau incomplete, folosind concepte din probabilitate și economie.[78]

Acești algoritmi s-au dovedit a fi insuficienți pentru rezolvarea problemelor mari de raționament, deoarece ajungeau într-o „explozie combinatorică”: deveneau exponențial mai lenți, pe măsură ce problemele creșteau.[58] De fapt, chiar și oamenii folosesc rareori deducția pas-cu-pas pe care a reușit să o modeleze cercetarea timpurie în IA. Ei rezolvă majoritatea problemelor lor folosind judecăți rapide și intuitive.[79]

Reprezentarea cunoștințelor

O ontologie reprezintă cunoștințele ca un set de concepte în cadrul unui domeniu și relațiile dintre aceste concepte.

Reprezentarea cunoștințelor[80] și ingineria cunoștințelor[81] sunt esențiale pentru cercetarea clasică din IA. Unele „sisteme expert” încearcă să reunească cunoștințe explicite posedate de experți într-un domeniu îngust. În plus, unele proiecte încearcă să strângă cunoștințele „de bun simț”, cunoscute oamenilor obișnuiți, într-o bază de date care conține cunoștințe extinse despre lume. Printre lucrurile pe care o bază cuprinzătoare de cunoștințe comune ar conține sunt: obiectele, proprietățile, categoriile și relațiile dintre obiecte;[82] situații, evenimente, stări și timp; [83] cauze și efecte;[84] cunoștințe despre cunoștințe (ce știm despre ceea ce știu ceilalți);[85] și multe alte domenii mai puțin bine cercetate. O reprezentare a „ceea ce există” este o ontologie: setul de obiecte, relațiile, conceptele și proprietățile descrise formal astfel încât agenții software să le poată interpreta. Semantica acestor elemente este capturată sub formă de concepte, roluri și indivizi din logica descriptivă și sunt, de obicei, implementate drept clase, proprietăți și indivizi în Web Ontology Language.[86] Cele mai generale ontologii sunt numite ontologii superioare, care încearcă să ofere o bază pentru toate celelalte cunoștințe[87] acționând ca mediatori între ontologiile de domeniu care acoperă cunoștințe specifice despre un anumit domeniu de cunoștințe (domeniu sau arie de interes). Astfel de reprezentări formale ale cunoștințelor pot fi utilizate în indexarea și regăsirea pe bază de conținut,[88] interpretarea scenei,[89] sprijinirea deciziilor clinice,[90] descoperirea de cunoștințe (extragerea de inferențe „interesante“ și deducții acționabile din baze mari de date),[91] și alte domenii.[92]

Printre cele mai dificile probleme ale reprezentării cunoștințelor se numără:

Raționamentul implicit și problema calificării
Multe dintre lucrurile pe care oamenii le cunosc iau forma unor „ipoteze de lucru”. De exemplu, dacă în conversație vine vorba despre o pasăre, oamenii își imaginează de obicei un animal care are dimensiunea pumnului, care cântă și zboară. Niciunul dintre aceste lucruri nu este adevărat despre toate păsările. John McCarthy a identificat această problemă în 1969[93] drept problem calificării: pentru orice regulă de bun simț pe care cercetătorii de IA doresc să o reprezinte, există un număr mare de excepții. Aproape nimic nu este pur și simplu adevărat sau fals în felul în care o impune logica abstractă. Cercetarea IA a explorat o serie de soluții la această problemă.[94]
Lărgimea cunoașterii generale
Numărul de fapte atomice pe care le știe un om oarecare este foarte mare. Proiectele de cercetare care încearcă să construiască o bază de cunoștințe completă a cunoștințelor comune (de exemplu, Cyc) necesită o cantitate enormă de inginerie ontologică laborioasă - acestea trebuie să fie construite manual, fiecare concept complicat pe rând.[95]
Forma subsimbolică a unor cunoștințe comune
O mare parte din ceea ce știu oamenii nu este reprezentat ca „fapte” sau „afirmații” pe care le-ar putea exprima verbal. De exemplu, un maestru de șah va evita o anumită poziție de șah pentru că „se simte prea expus”[96] sau un critic de artă poate să arunce o singură privire pe o statuie și să-și dea seama că este un fals.[97] Acestea sunt intuiții și tendințe inconștiente și subsimbolice din creierul uman.[98] Cunoașterea de acest gen informează, sprijină și oferă un context pentru cunoașterea simbolică și conștientă. Ca și în cazul problemelor legate de raționamentul subsimbolic, se speră că IA situată, inteligența computațională sau IA statistică va oferi modalități de reprezentare a acestui tip de cunoaștere.[98]

Planificarea

Un sistem de control ierarhic este o formă de sistem de control în care un ansamblu de dispozitive și software de conducere este aranjat într-o ierarhie.

Agenții inteligenți trebuie să poată să-și stabilească și să îndeplinească obiective.[99] Ei au nevoie de o modalitate de a vizualiza viitorul — o reprezentare a stării lumii și să poată face previziuni cu privire la modul în care acțiunile lor o vor schimba — și să poată face alegeri care maximizează utilitatea (sau „valoarea”) alegerilor disponibile.[100]

În problemele de planificare clasică, agentul poate presupune că este singurul sistem care acționează în lume, permițând agentului să se asigure de consecințele acțiunilor sale.[101] Cu toate acestea, dacă agentul nu este singurul actor, atunci este necesar ca agentul să poată raționa sub incertitudine. Aceasta necesită un agent care să nu poată evalua doar mediul său și să facă previziuni, ci și să își evalueze previziunile și să se adapteze pe baza evaluării sale.[102]

Planificarea multi-agent utilizează cooperarea și concurența multor agenți pentru a atinge un obiectiv dat. Astfel de comportament emergent este folosit de algoritmi evolutivi și de inteligența de roi.[103]

Învăţare

Învățarea automată, un concept fundamental al cercetării IA de la începutul domeniului,[104] este studiul algoritmilor de calcul care se îmbunătățesc automat prin experiență.[105][106]

Învățarea nesupravegheată este abilitatea de a găsi șabloane într-un flux de intrare, fără a cere unui om să eticheteze mai întâi intrările.[107] Învățarea supravegheată include atât clasificarea, cât și regresia numerică, care necesită etichetarea în prealabil de către om a datelor de intrare. Clasificarea este folosită pentru a determina în ce categorie aparține ceva, după ce a văzut câteva exemple de lucruri din mai multe categorii. Regresia este încercarea de a produce o funcție care descrie relația dintre intrări și ieșiri și prezice modul în care ieșirile ar trebui să se schimbe odată cu schimbarea intrărilor.[106] Atât clasificatorii, cât și mașinile de învățare prin regresie pot fi văzuți ca „aproximatori de funcții”, încercând să învețe o funcție necunoscută (eventual implicită); de exemplu, un clasificator de spam poate fi privit ca învățând o funcție care mapează textul unui e-mail într-una din cele două categorii, „spam” sau „non spam”. Teoria învățării computaționale poate evalua cursanții prin complexitate computațională, prin complexitatea eșantionului (de câte date este nevoie) sau prin alte noțiuni de optimizare.[108] În învățarea prin întărire,[109] agentul este răsplătit pentru răspunsuri bune și pedepsit pentru cele greșite. Agentul folosește această succesiune de recompense și pedepse pentru a forma o strategie de operare în spațiul problemei.

Prelucrarea limbajului natural

Un arbore de parsare reprezintă structura sintactică a unei propoziții conform unei anumite gramatici formale.

Prelucrarea limbajului natural[110] (PLN) oferă mașinilor posibilitatea de a citi și de a înțelege limbajul uman. Un sistem suficient de puternic de procesare a limbajului natural ar permite interfețele utilizator în limbaj natural și dobândirea de cunoștințe direct din surse scrise de om, cum ar fi textele știrilor. Unele aplicații simple ale procesării limbajului natural includ recuperarea informațiilor, extragerea cunoștințelor din texte, răspunsul la întrebări[111] și traducerea automată. [112] Multe abordări actuale utilizează frecvențe de co-apariție a cuvintelor pentru a construi reprezentări sintactice ale textului. Strategiile de căutare a cuvintelor-cheie sunt populare și scalabile, dar simpliste; o interogare de căutare după „câine” ar putea să se potrivească doar documentelor cu cuvântul literal „câine” și să rateze un document cu cuvântul „pudel”. Strategiile de „afinitate lexicală” utilizează apariția unor cuvinte precum „accident” pentru a evalua sentimentul unui document. Abordările statistice moderne ale PLN pot combina toate aceste strategii, precum și altele, și ating adesea o acuratețe acceptabilă la nivel de pagină sau de paragraf, dar continuă să lipsească înțelegerea semantică necesară pentru a clasifica bine propoziții izolate. Pe lângă dificultățile obișnuite cu codificarea cunoașterii semantice, PLN semantică existentă scalează, uneori, prea slab pentru a fi viabilă în aplicațiile curente. Dincolo de PLN semantică, scopul final al PLN „narative” este de a încorpora o înțelegere deplină a raționamentului de bun-simț.[113]

Percepţie

Detectarea elementelor (ilustrată: detectarea muchiilor) ajută IA să compună structuri abstracte informative din datele brute.

Percepția automată[114] este abilitatea de a folosi date de intrare de la senzori (cum ar fi camerele (de spectru vizibil sau infraroșu), microfoane, semnale wireless și lidare, sonare, radare si senzori tactili) pentru a deduce aspecte ale lumii. Aplicațiile includ recunoașterea vorbirii,[115] recunoașterea facială și recunoașterea obiectelor.[116] Vederea mașinilor este abilitatea de a analiza intrările vizuale. O astfel de intrare este de obicei ambiguă; un pieton uriaș, de cincizeci de metri, aflat la distanță, poate produce exact aceiași pixeli ca un pieton de dimensiuni normale aflat în apropiere, ceea ce necesită ca IA să judece probabilitatea relativă și rezonabilitatea diferitelor interpretări, de exemplu prin utilizarea modelului său de obiecte pentru a evalua că nu există pietoni de cincizeci de metri înălțime.[117]

Mișcare și manipulare

IA este mult folosită în robotică.[118] Brațele robotice avansate și alți roboți industriali, utilizați pe scară largă în fabricile moderne, pot învăța din experiență cum să se deplaseze eficient în ciuda prezenței frecării și alunecării angrenajelor.[119] Un robot mobil modern, atunci când i se dă un mediu mic, static și vizibil, își poate determina cu ușurință locația și își poate reprezenta mediul; totuși, mediile dinamice, cum ar fi (în endoscopie) interiorul corpului unui pacient viu, reprezintă o provocare mai mare. Planificarea mișcării este procesul de descompunere a unei sarcini de mișcare în „primitive”, cum ar fi mișcările individuale comune. O astfel de mișcare implică adesea mișcare conformă, un proces în care mișcarea necesită menținerea unui contact fizic cu un obiect.[120][121][122] Paradoxul lui Moravec generalizează că abilitățile senzorimotorii de nivel scăzut, pe care oamenii le iau ca atare sunt, în mod contraintuitiv, greu de programat într-un robot; paradoxul este numit după Hans Moravec, care a afirmat în 1988 că „este destul de ușor să se facă computerele să prezinte performanțe la nivelul adulților pe testele de inteligență sau la jocul de dame, dar este dificil spre imposibil să capete abilitățile unui copil de un an când vine vorba de percepție și mobilitate”.[123][124] Acest lucru se datorează faptului că, spre deosebire de jocul de dame, dexteritatea fizică a fost o țintă directă a selecției naturale timp de milioane de ani.[125]

Inteligența socială

Kismet, un robot cu abilități sociale rudimentare[126]

Paradoxul lui Moravec poate fi extins la multe forme de inteligență socială.[127][128] Distribuirea coordonării multi-agent a vehiculelor autonome rămâne o problemă dificilă.[129] Calculul afectiv este o umbrelă interdisciplinară care cuprinde sisteme care recunosc, interpretează, procesează sau simulează afecțiunile umane.[130][131][132] Printre succesele moderate legate de calculul se numără analiza textuală a sentimentelor și, mai recent, analiza afectivă multimodală, în care IA clasifică afectele prezentate de un subiect înregistrat pe un film.[133]

Pe termen lung, aptitudinile sociale și înțelegerea emoției umane și a teoriei jocurilor ar fi valoroase pentru un agent social. Capacitatea de a prezice acțiunile altora prin înțelegerea motivelor și a stărilor emoționale ar permite unui agent să ia decizii mai bune. Unele sisteme informatice imită emoțiile și expresiile umane pentru a deveni mai sensibile la dinamica emoțională a interacțiunii umane sau pentru a facilita altfel interacțiunea om-calculator.[134] În mod similar, unii asistenți virtuali sunt programați să poarte conversații sau chiar să se pălăvrăgească în glumă; acest lucru tinde să ofere utilizatorilor naivi o concepție nerealistă despre cât de inteligenți sunt de fapt agenții automați existenți. [135]

Inteligența generală

Din punct de vedere istoric, proiectele ca baza de cunoștințe Cyc (1984-) și inițiativa japoneză masivă a sistemelor informatice din generația a cincea (1982-1992), au încercat să acopere amploarea cunoașterii umane. Aceste proiecte timpurii nu au reușit să scape de limitările modelelor logice simbolice necantitative și, în retrospectivă, au subestimat foarte mult dificultatea inteligenței artificiale inter-domeniu. În zilele noastre, marea majoritate a cercetătorilor actuali din IA lucrează în schimb pe aplicații de „IA îngust” mai tractabile (cum ar fi diagnosticul medical sau navigația automobilelor).[136] Mulți cercetători prognozează că astfel de „IA înguste" vor lucra în diferite domenii individuale, și în cele din urmă vor fi integrate într-o mașină cu inteligență generală artificială (AGI) combinând majoritatea competențelor înguste menționate în acest articol și într-un anumit punct chiar depășind capacitatea umană în majoritatea sau toate aceste domenii.[18][137] Multe progrese au o semnificație generală, pe mai multe domenii. Un exemplu de mare anvergură este faptul că DeepMind a dezvoltat în 2010 o „inteligență artificială generalizată” care ar putea învăța multe jocuri Atari diferite de una singură și mai târziu a dezvoltat o variantă a sistemului care reușește la învățarea secvențială.[138][139][140] Pe lângă învățarea prin transfer,[141] descoperirile ipotetice ale IGA ar putea cuprinde dezvoltarea unor arhitecturi reflexive care să se poată implica în metaraționamentul decizional-teoretic și găsirea unui mod de a „absorbi” o bază de cunoștințe cuprinzătoare din întregul web nestructurat.[6] Unii susțin că un fel de „algoritm master” (încă nedescoperit) conceptual simplu, dar matematic dificil, ar putea conduce la AGI.[142] În cele din urmă, câteva abordări „emergente“, privesc la simularea inteligenței umane extrem de îndeaproape, și cred că unele caracteristici antropomorfe, cum ar fi creierul artificial sau simularea dezvoltării copiilor pot ajunge într-o zi într-un punct critic în care apare inteligența generală.[143][144]

Multe dintre problemele din acest articol pot necesita, de asemenea, inteligență generală, dacă mașinile trebuie să rezolve problemele așa cum o fac oamenii. De exemplu, chiar și sarcini simple, cum ar fi traducerea automată, necesită ca o mașină să citească și să scrie în ambele limbi (PLN), să urmeze logica (raționamentul) autorului, să știe despre ce se vorbește (cunoștințe) și să reproducă cu fidelitate intenția originară a autorului (inteligență socială). O problemă precum traducerea automată este considerată „IA-completă”, pentru că toate aceste probleme trebuie rezolvate simultan pentru a considera că mașina a atins performanța unui om.

Abordări

Nu există o teorie sau paradigmă unificatoare care să ghideze cercetarea de IA. Cercetătorii nu au căzut de acord asupra multor aspecte.[145] Câteva dintre cele mai îndelungate întrebări care au rămas fără răspuns sunt următoarele: ar trebui inteligența artificială să simuleze inteligența naturală prin studiul psihologiei sau neurobiologiei? Sau biologia umană este irelevantă pentru cercetarea IA, așa cum este biologia păsărilor pentru ingineria aeronautică?[15] Poate fi descris un comportament inteligent folosind principii simple și elegante (cum ar fi logica sau optimizarea)? Sau este neapărat nevoie de rezolvarea unui număr mare de probleme complet independente?[16]

Cibernetica și simularea creierului

În anii 1940 și 1950, mai mulți cercetători au explorat legătura dintre neurobiologie, teoria informațiilor și cibernetică. Unii dintre aceștia au construit mașini care utilizează rețele electronice pentru a expune informații rudimentare, cum ar fi țestoasele lui W. Gray Walter și fiara de la Johns Hopkins. Mulți dintre acești cercetători s-au adunat pentru întâlnirile Societății Teleologice de la Universitatea Princeton și în Clubul Ratio din Anglia.[146] Până în 1960, această abordare a fost în mare parte abandonată, deși elemente ale acesteia aveau să fie reînviate în anii 1980.

Simbolice

Când accesul la calculatoarele digitale a devenit posibil la mijlocul anilor 1950, cercetarea IA a început să exploreze posibilitatea ca inteligența umană să poată fi redusă la manipularea simbolurilor. Cercetarea a fost centrată în trei instituții: Universitatea Carnegie Mellon, Stanford și MIT, iar după cum este descris mai jos, fiecare și-a dezvoltat propriul stil de cercetare. John Haugeland a numit aceste abordări simbolice ale IA „good old-fashioned AI” („GOFAI”; în traducere liberă „IA bună ca pe vremuri”).[147] În anii 1960, abordările simbolice au avut un mare succes în simularea gândirii la nivel înalt în programele demonstrative mici. Abordările bazate pe cibernetică sau pe rețele neurale artificiale au fost abandonate sau împinse în fundal.[148] Cercetătorii din anii 1960 și 1970 au fost convinși că abordările simbolice ar reuși în cele din urmă să creeze o mașină cu inteligență generală artificială și să considere acest lucru scopul țelului lor.

Simularea cognitivă

Economistul Herbert Simon și Allen Newell au studiat abilitățile de rezolvare a problemelor umane și au încercat să le formalizeze, iar activitatea lor a pus bazele domeniului inteligenței artificiale, precum și ale științei cognitive, cercetării operaționale și științei managementului. Echipa lor de cercetare a folosit rezultatele experimentelor psihologice pentru a dezvolta programe care au simulat tehnicile pe care oamenii le foloseau pentru rezolvarea problemelor. Această tradiție, centrată pe Universitatea Carnegie Mellon, avea să culmineze în cele din urmă în dezvoltarea arhitecturii Soar în mijlocul anilor 1980.[149][150]

Pe bază de logică

Spre deosebire de Simon și Newell, John McCarthy a simțit că mașinile nu au nevoie să simuleze gândirea umană, ci ar trebui să încerce să găsească esența raționamentului abstract și a rezolvării problemelor, indiferent dacă oamenii folosesc aceleași algoritmi.[15] Laboratorul său de la Stanford (SAIL) s-a concentrat pe utilizarea logicii formale pentru a rezolva o mare varietate de probleme, inclusiv reprezentarea cunoștințelor, planificarea și învățarea.[151] Logica a fost, de asemenea, subiectul unor lucrări de la Universitatea din Edinburgh și din alte părți ale Europei, care au condus la dezvoltarea limbajului de programare Prolog și a științei programării logice.[152]

Anti-logice sau scruffy

Cercetătorii de la MIT (precum Marvin Minsky și Seymour Papert)[153] au constatat că rezolvarea unor probleme dificile de vedere și prelucrarea limbajului natural necesită soluții ad-hoc — ei au susținut că nu există un principiu simplu și general (cum ar fi logica) care să captureze toate aspectele comportamentului inteligent. Roger Schank descrie abordările lor „anti-logice” ca fiind „scruffy” (spre deosebire de paradigmele „neat” de la CMU și Stanford).[16] Bazele de cunoștințe de bun simț (cum ar fi Cyc a lui Doug Lenat) sunt un exemplu de IA „scruffy”, deoarece trebuie construită manual, concept cu concept.[154]

Pe bază de cunoștințe

Când au devenit disponibile computerele cu memorii mari pe la 1970, cercetătorii din toate cele trei tradiții au început să introducă cunoștințe în aplicațiile IA.[155] Această „revoluție a cunoștințelor” a dus la dezvoltarea și desfășurarea sistemelor expert (introduse de Edward Feigenbaum), prima formă cu adevărat de succes a software-ului cu IA.[38] O componentă cheie a arhitecturii de sistem pentru toate sistemele expert este baza de cunoștințe care stochează fapte și reguli care ilustrează IA.[156] Revoluția cunoștințelor a fost determinată și de realizarea faptului că o mulțime de cunoștințe ar fi necesare multor aplicații cu IA simple.

Subsimbolice

Până în anii 1980, progresul în domeniul IA simbolic părea să se blocheze și mulți credeau că sistemele simbolice nu ar putea niciodată să imite toate procesele cunoașterii umane, în special percepția, robotica, învățarea și recunoașterea șabloanelor. Mai mulți cercetători au început să privească spre abordările „subsimbolice” asupra problemelor specifice IA.[17] Metodele sub-simbolice reușesc să abordeze inteligența fără reprezentări specifice ale cunoașterii.

Inteligență întruchipată

Aceasta include IA întruchipată, situată, bazată pe comportament și nouvelle. Cercetătorii din domeniul asociat al roboticii, cum ar fi Rodney Brooks, respingeau IA simbolică și s-au concentrat asupra problemelor fundamentale de inginerie care ar permite roboților să se miște și să supraviețuiască.[157] Munca lor a reînviat punctul de vedere nesimbolic al cercetătorilor timpurii ai ciberneticii din anii 1950 și a reintrodus utilizarea teoriei controlului în IA. Acest lucru a coincis cu dezvoltarea tezei gândirii încorporate în domeniul conex al științei cognitive: ideea că aspecte ale corpului (cum ar fi mișcarea, percepția și vizualizarea) sunt necesare unei inteligențe superioare.

În cadrul roboticii de dezvoltare, se elaborează abordări de învățare pentru dezvoltare pentru a permite roboților să acumuleze repertorii de abilități noi prin auto-explorare autonomă, interacțiune socială cu profesori umani și utilizarea mecanismelor de orientare (învățare activă, maturizare, sinergii motorii etc.).[158][159][160][161]

Inteligență computațională și soft computing

Interesul pentru rețelele neurale și „conexionism” a fost relansat de David Rumelhart și alții la mijlocul anilor 1980.[162] Rețelele neurale artificiale sunt un exemplu de soft computing — acestea sunt soluții la probleme care nu pot fi rezolvate cu o certitudine logică completă și unde o soluție aproximativă este adesea suficientă. Alte abordări de soft computing în IA sunt sistemele fuzzy, calculul evolutiv și multe instrumente statistice. Aplicarea soft computingului în IA este studiată colectiv de disciplina emergentă a inteligenței computaționale. [163]

Învățarea statistică

O mare parte din GOFAI tradiționale s-au împotmolit în mici modificări ad-hoc aduse calculului simbolic care a lucrat pe propriile modele, dar nu s-a generalizat la rezultatele din lumea reală. Cu toate acestea, în jurul anilor 1990, cercetătorii din IA au adoptat instrumente matematice sofisticate, cum ar fi modelele Markov ascunse (HMM), teoria informațiilor și teoria bayesiană a deciziei pentru a compara sau unifica arhitecturile concurente. Limbajul matematic comun a permis un nivel ridicat de colaborare cu mai multe domenii (cum ar fi matematica, economia sau cercetarea operațională).[d] În comparație cu GOFAI, noi tehnici de "învățare statistică", cum ar fi rețelele neurale și HMM, au obținut niveluri mai înalte de precizie în multe domenii practice, cum ar fi data mining, fără a se obține neapărat înțelegerea semantică a seturilor de date. Succesele sporite cu datele din lumea reală au condus la accentul sporit pe compararea diferitelor abordări ale datelor de testare partajate, pentru a vedea care dintre metodele au cea mai bună performanță într-un context mai larg decât cel oferit de modelele idiosincratice; cercetarea AI a devenit tot mai științifică. În prezent, rezultatele experimentelor sunt adesea măsurabile riguros și uneori (cu dificultate) pot fi reproduse.[39][164] Diferitele tehnici de învățare statistică au limite diferite; de exemplu, HMM de bază nu poate modela combinațiile posibile infinite ale limbajului natural.[165] Criticii remarcă faptul că trecerea de la GOFAI la învățarea statistică implică adesea, de asemenea, abandonarea IA explicabile. În cercetarea IGA, unii cercetători avertizează împotriva dependenței excesive de învățarea statistică și susțin că cercetarea continuă a GOFAI va fi totuși necesară pentru a obține informații generale.[166][167]

Integrarea abordărilor

Paradigma agentului inteligent
Un agent inteligent este un sistem care își percepe mediul și efectuează acțiuni care îi maximizează șansele de succes. Cei mai simpli agenți inteligenți sunt programe care rezolvă probleme specifice. Printre agenții mai complicați se numără ființele umane și organizațiile de ființe umane (cum ar fi firmele). Paradigma permite cercetătorilor să compare direct sau chiar să combine diferite abordări pentru problemele izolate, întrebând care agent este cel mai bun la maximizarea unei „funcții de țintă” date. Un agent care rezolvă o problemă specifică poate folosi orice abordare care funcționează — unii agenți sunt simbolici și logici, unii sunt rețele neurale artificiale subsimbolice și alții pot folosi noi abordări. Paradigma oferă, de asemenea, cercetătorilor un limbaj comun pentru a comunica cu alte domenii — cum ar fi teoria deciziei și economia — care utilizează și ele conceptul agenților abstracți. Construirea unui agent complet necesită ca cercetătorii să abordeze probleme realiste de integrare; de exemplu, deoarece sistemele senzoriale oferă informații nesigure despre mediu, sistemele de planificare trebuie să poată funcționa în prezența incertitudinii. Paradigma agentului inteligent a devenit pe scară largă acceptată în anii 1990.[168]
Arhitecturi de agent și arhitecturi cognitive
Cercetătorii au creat sisteme pentru a construi sisteme inteligente din interacțiunea agenților inteligenți într-un sistem multi-agent.[169] Un sistem ierarhic de control oferă o punte între IA subsimbolică la nivelurile sale reactive, cele mai scăzute, și IA simbolică tradițională de la cele mai înalte niveluri, unde constrângerile de timp relaxate permit planificarea și modelarea lumii.[170] Unele arhitecturi cognitive sunt personalizate pentru a rezolva o problemă îngustă; altele, cum ar fi Soar, sunt concepute pentru a imita cogniția umană și pentru a oferi o perspectivă asupra inteligenței generale. Extensiile moderne ale Soar sunt sisteme inteligente hibride care includ atât componente simbolice, cât și sub-simbolice.[171][172]

Instrumente

IA a dezvoltat un număr mare de instrumente pentru a rezolva cele mai dificile probleme din domeniul informaticii. Câteva dintre cele mai generale dintre aceste metode sunt discutate mai jos.

Căutarea și optimizarea

Multe probleme din IA pot fi rezolvate teoretic prin căutarea inteligentă între multe soluții posibile: [173] Raționamentul poate fi redus la efectuarea unei căutări. De exemplu, demonstrația logică poate fi privită drept căutarea unei căi care conduce de la ipoteză la concluzie, în care fiecare pas este aplicarea unei reguli de inferență.[174] Algoritmii de planificare caută prin arbori de obiective și subobiective, încercând să găsească o cale către un obiectiv țintă, un proces numit analiză mijloc-scop. [175] Algoritmii de robotică pentru mișcarea membrelor și pentru apucarea obiectelor utilizează căutări locale în spațiul de configurare.[119] Mulți algoritmi de învățare utilizează algoritmi de căutare bazați pe optimizare.

Căutările exhaustive simple[176] sunt rareori suficiente pentru majoritatea problemelor din lumea reală: dimensiunea spațiului de căutare (numărul de locuri de căutare) crește rapid la cifre astronomice. Rezultatul este o căutare care este prea lentă sau nu se termină niciodată. Soluția, pentru multe probleme, este de a folosi „euristica” sau „regula aproximativă” care prioritizează opțiunile în favoarea celor care au mai multe șanse de a atinge un obiectiv și de a face acest lucru într-un număr mai mic de pași. În unele metodologii de căutare, euristica poate servi, de asemenea, la eliminarea în totalitate a unor alegeri care sunt puțin probabil să conducă la un scop (numită „tăierea ramurilor arborelui de căutare”). Euristica furnizează programului o „estimare a căii celei mai bune” spre care ar putea exista soluția.[177] Euristica limitează căutarea soluțiilor într-un eșantion de dimensiune mai mică.[120]

Un tip foarte diferit de căutare a ieșit în evidență în anii 1990, bazat pe teoria matematică a optimizării. Pentru multe probleme, este posibil să se înceapă căutarea cu o anumită formă de aproximare și apoi să se rafineze această aproximare incremental până când nu mai pot fi făcute îmbunătățiri. Acești algoritmi pot fi vizualizați ca escaladă orbească: se începe căutarea într-un punct aleatoriu din peisaj și apoi, prin salturi sau pași, se continuă mișcarea în sus, până se ajunge în vârf. Alți algoritmi de optimizare sunt simulated annealing, beam search și optimizarea aleatorie.[178]

Un roi de particule care caută minimul global

Calculul evolutiv utilizează o formă de căutare cu optimizare. De exemplu, el poate începe cu o populație de organisme (presupunerile) și apoi le permite să sufere mutații și să se recombine, selectând doar cei mai potriviți indivizi pentru a supraviețui fiecărei generații (rafinarea presupunerilor). Printre algoritmii evolutivi clasici se numără algoritmii genetici, programarea genetică de expresie și programarea genetică.[179] Alternativ, procesele de căutare distribuite pot fi coordonate prin algoritmi de inteligență a roiului. Doi algoritmi populari de rotire folosiți în căutare sunt optimizarea roiurilor de particule (inspirată de roirea păsărilor) și optimizarea coloniilor de furnici (inspirată de urmele furnicilor).[180][181]

Logică

Logica[182] este folosită pentru reprezentarea cunoștințelor și rezolvarea problemelor, dar poate fi aplicată și altor probleme. De exemplu, algoritmul satplan utilizează logica pentru planificare[183] și programarea logică inductivă este o metodă de învățare.[184]

În cercetarea IA se folosesc mai multe forme diferite de logică. Logica propozițională[185] implică funcții de adevăr, cum ar fi „sau” și „non”. Logica de ordinul întâi[186] adaugă cuantificatori și predicate și poate exprima fapte despre obiecte, proprietățile lor și relațiile dintre ele. Teoria mulțimilor vagi atribuie un „grad de adevăr” (între 0 și 1) unor afirmații vagi precum „Alice este bătrână” (sau „bogată”, „înaltă” sau „înfometată”) care sunt prea imprecise din punct de vedere lingvistic pentru a fi complet adevărate sau complet false. Logica fuzzy este folosită cu succes în sistemele de control pentru a permite experților să contribuie cu reguli vagi precum „dacă ești aproape de stația de destinație și te miști rapid, crește presiunea de frânare a trenului”; aceste reguli vagi pot fi rafinate numeric în cadrul sistemului. Logica fuzzy nu reușește să scaleze bine în bazele de cunoștințe; mulți cercetători de IA sunt reticenți față de validitatea inferențelor de logică fuzzy.[e][188][189]

Logicile implicite, cele nemonotone și circumscrierea[94] sunt forme de logică concepute pentru a ajuta la raționamentul implicit și la problema calificării. Mai multe extensii de logică au fost concepute pentru a gestiona domenii specifice ale cunoașterii, cum ar fi: logica descriptivă;[82] calculul de situație, calculul de evenimente și calculul fluent (pentru reprezentarea evenimentelor și a timpului);[83] calculul cauzal;[84] calculul de credință;[190] și logicile modale.[85]

În ansamblu, logica simbolică calitativă este fragilă și scalează rău în prezența zgomotului sau a altei incertitudini. Excepțiile de la reguli sunt numeroase și este dificil pentru sistemele logice să funcționeze în prezența unor reguli contradictorii.[191][192]

Metode probabilistice pentru raționament incert

Clustering prin expectation-maximization al datelor de erupție a lui Old Faithful pornește de la o presupunere aleatorie, dar apoi converge cu succes într-o clusterizare precisă a celor două moduri fizice distincte de erupție.

Multe probleme din IA (de raționament, planificare, învățare, percepție și robotică) necesită ca agentul să funcționeze cu informații incomplete sau nesigure. Cercetătorii de IA au conceput o serie de instrumente puternice pentru a rezolva aceste probleme utilizând metode din teoria probabilităților și din economie. [193]

Rețelele bayesiene[194] sunt un instrument foarte general, care poate fi folosit pentru un număr mare de probleme: de raționament (folosind algoritmul inferențelor bayesiane),[195] de învățare (folosind algoritmul EM),[f][197] planificare (prin utilizarea rețelelor decizionale) [198] și percepție (utilizând rețele bayesiene dinamice).[199] Se pot utiliza și algoritmi probabilistici pentru filtrarea, predicția, rafinarea și găsirea de explicații pentru fluxurile de date, ajutând sistemele de percepție să analizeze procesele care apar în timp (de exemplu, modelele Markov ascunse sau filtrele Kalman).[199] În comparație cu logica simbolică, inferența bayesiană formală este costisitoare din punct de vedere computațional. Pentru ca inferența să fie tractabilă, majoritatea observațiilor trebuie să fie dependente condiționat una de cealaltă. Graficele complexe cu „bucle” (cicluri neorientate) pot necesita o metodă sofisticată, cum ar fi metoda Monte Carlo cu lanțuri Markov , care răspândește un ansamblu de drumuri aleatoare prin întreaga rețea bayesiană și încearcă să conveargă la o evaluare a probabilităților condiționate. Rețelele bayesiene sunt utilizate pe Xbox Live pentru a evalua și a potrivi jucătorii între ei; victoriile și înfrângerile sunt „dovezi” despre cât de bun este un jucător. AdSense utilizează o rețea bayesiană cu peste 300 de milioane de muchii pentru a afla ce reclame să afișeze.[191]

Un concept-cheie, provenit din știința economiei, este cel de „utilitate”: o măsură a cât de valoros este ceva pentru un agent inteligent. S-au dezvoltat instrumente matematice precise care analizează modul în care un agent poate să facă alegeri și să planifice, utilizând teoria deciziei, analiza deciziei,[200] și teoria valorii informației.[100] Aceste instrumente includ modele, cum ar fi procesele de decizie Markov,[201] rețele dinamice de decizie,[199] teoria jocurilor și designul mecanismelor economice.[202]

Clasificatori și metode statistice de învățare

Cele mai simple aplicații de IA pot fi împărțite în două tipuri: clasificatori („dacă sclipește, atunci diamant”) și controlori („dacă lucios, atunci ridică”). Controlorii mai și clasifică însă condițiile înainte de a infera acțiuni și, prin urmare, clasificarea formează o parte centrală a multor sisteme cu IA. Clasificatorii sunt funcții care utilizează aplicarea șabloanelor pentru a determina potrivirea cea mai apropiată. Ele pot fi reglate conform exemplelor, făcându-le foarte atractive pentru utilizarea în IA. Aceste exemple sunt cunoscute ca observații sau șabloane. În învățarea supravegheată, fiecare model aparține unei anumite clase predefinite. O clasă poate fi văzută ca o decizie care trebuie luată. Toate observațiile combinate cu etichetele lor de clasă sunt cunoscute ca un set de date. Atunci când se primește o nouă observație, această observație este clasificată pe baza experienței anterioare.[203]

Un clasificator poate fi instruit în diferite moduri; există multe abordări statistice și de învățare automată. Arborele de decizie[204] este probabil cel mai utilizat algoritm de învățare automată.[205] Alți clasificatori utilizați pe scară largă sunt rețelele neurale,[206] algoritmul k-NN,[g][208] metodele kernel, cum ar fi support-vector machine (SVM),[h][210] modelul gaussian de amestec[211] și clasificatorul Bayes naiv.[i][213] Performanța clasificatorului depinde în mare măsură de caracteristicile datelor care urmează a fi clasificate, cum ar fi dimensiunea setului de date, distribuția eșantioanelor pe clase, dimensionalitatea și nivelul zgomotului. Clasificatorii bazați pe modele funcționează bine dacă modelul asumat se potrivește extrem de bine pe datele reale. În caz contrar, dacă nu există un model compatibil și dacă singura preocupare este acuratețea (și nu viteza sau scalabilitatea), se știe că clasificatorii discriminatori (în special SVM) tind să fie mai exacți decât clasificatorii bazați pe model, cum ar fi „Bayes naiv” pe cele mai multe seturi de date din practică.[214][215]

Rețele neurale artificiale

O rețea neurală este un grup de noduri interconectate, asemănătoare cu vasta rețea de neuroni din creierul uman.

Rețelele neurale s-au inspirat din arhitectura neuronilor din creierul uman. Un „neuron” simplu N acceptă intrări de la mai mulți neuroni, fiecare dintre ei, atunci când este activat, aruncă un „vot” ponderat pentru sau împotriva activării neuronului N. Învățarea necesită un algoritm de ajustare a acestor ponderi pe baza datelor de antrenament; un algoritm simplu (pe principiul „conectează ce se declanșează împreună”) este de a crește ponderea conexiunii între doi neuroni conectați atunci când activarea unuia declanșează activarea cu succes a altuia. Rețeaua formează „concepte” care sunt distribuite într-o subrețea de neuroni partajați[j] care tind să se activeze împreună; de exemplu, un concept care înseamnă „picior” ar putea fi cuplat cu o subrețea care înseamnă „picior”, care include sunetul pentru „picior”. Neuronii au un spectru continuu de activare; mai mult, ei pot procesa intrările neliniar, în loc să cântărească voturi simple. Rețelele neurale moderne pot învăța atât funcții continue, cât și, surprinzător, operații logice digitale. Rețelele neuronale au avut succese la prezicerea evoluției pieței bursiere și (în 1995) un autovehicul care se conducea în mare parte automat.[k][216] În anii 2010, progresele înregistrate în rețelele neurale ce utilizează învățarea în profunzime au propulsat domeniul IA în conștiința publică, și au contribuit la o creștere enormă a investițiilor corporative în IA; de exemplu, fuziunile și achizițiile de companii în domeniul IA în 2017 erau de peste 25 de ori mai substanțiale decât în 2015.[217][218]

Studiul rețelelor neurale fără învățare[206] a început în deceniul anterior creării domeniului cercetării IA, în lucrarea lui Walter Pitts și a lui Warren McCullouch. Frank Rosenblatt a inventat perceptronul, o rețea de învățare cu un singur strat, similar cu vechiul concept de regresie liniară . Printre pionierii timpurii ale domeniului se numără și Alexei Grigorevici Ivahnenko, Teuvo Kohonen, Stephen Grossberg, Kunihiko Fukushima, Christoph von der Malsburg, David Willshaw, Shun-Ichi Amari, Bernard Widrow, John Hopfield, Eduardo R. Caianiello și alții.

Principalele categorii de rețele sunt rețelele neurale feedforward sau aciclice (unde semnalul trece într-o singură direcție) și rețele neurale recurente (care permit feedback și memorii pe termen scurt ale evenimentelor de intrare anterioare). Printre cele mai populare rețele feedforward sunt perceptronii, perceptronii multi-strat și rețelele cu bază radială.[219] Rețelele neurale pot fi aplicate problemei controlului inteligent (pentru robotică) sau învățării, folosind tehnici precum învățarea Hebbian („conectează ce se declanșează împreună”), GMDH sau învățare competitivă.[220]

Astăzi, rețelele neurale sunt adesea antrenate prin algoritmul backpropagation, care există de pe la 1970 ca invers al diferențierii automate publicate de Seppo Linnainmaa[221][222] și a fost introdus în rețelele neurale de Paul Werbos.[223][224][225]

Memoria temporală ierarhică este o abordare care modelează unele dintre proprietățile structurale și algoritmice ale neocortexului.[226]

Pe scurt, majoritatea rețelelor neurale utilizează o anumită formă de coborâre de gradient pe o topologie neurală creată manual. Cu toate acestea, unele grupuri de cercetare, cum ar fi Uber, susțin că o neuroevoluție simplă, în care prin mutație se generează noi topologii și ponderi de rețele neurale, poate fi competitivă chiar și în fața unor abordări sofisticate cu coborâre de gradient. Un avantaj al neuroevoluției este acela că ar putea fi mai puțin predispusă la a fi blocată într-o „fundătură”.[227]

Rețele neurale cu feedforward

Învățarea profundă este orice rețea neurală artificială care poate învăța un lanț lung de legături de cauzalitate. De exemplu, o rețea cu feedforward cu șase straturi ascunse poate învăța un lanț de cauzalitate cu șapte legături (șase straturi ascunse + stratul de ieșire) și are o profunzime de „alocare a creditului” (CAP) de șapte. Multe sisteme cu învățare profundă trebuie să poată învăța lanțuri cu zece sau mai multe legături de cauzalitate.[228] Învățarea profundă a transformat multe subdomenii importante ale inteligenței artificiale, inclusiv vederea mașinilor, recunoașterea vorbirii, prelucrarea limbajului natural și altele.[229][230][228]

Conform unei vederi de ansamblu,[231] expresia Deep Learning a fost introdusă în comunitatea de învățare automată de către Rina Dechter în 1986[232] și a căpătat anvergură după ce Igor Aizenberg si colegii săi au introdus-o în rețelele neurale artificiale în 2000.[233] Primele rețele rețele funcționale de învățare profundă au fost publicate de Alexei Grigorevici Ivahnenko și VG Lapa în 1965.[234] Aceste rețele sunt antrenate strat cu strat. Articolul lui Ivahnenko din 1971 [235] descrie învățarea unui perceptron multistrat feedforward profund cu opt straturi, deja mult mai profund decât multe rețele ulterioare. În 2006, o publicație a lui Geoffrey Hinton și a lui Ruslan Salahutdinov a introdus un alt mod de pre-antrenare a unor rețele neurale feedforward multistrat, tratând fiecare strat pe rând ca pe o mașină Boltzmann restrânsă nesupravegheată, apoi folosind backpropagation supravegheat pentru reglajul fin.[236] Asemenea rețelelor neurale artificiale superficiale, rețelele neurale profunde pot modela relații neliniare complexe. În ultimii ani, progresele atât în domeniul algoritmilor de învățare automată, cât și în domeniul hardware-ului calculatoarelor au condus la metode mai eficiente de formare a rețelelor neurale profunde care conțin mai multe straturi de unități neliniare ascunse și un strat de ieșire foarte mare.[237]

Învățarea profundă utilizează adesea rețele neurale convoluționale (RNC), ale căror origini par a fi în Neocognitronul introdus de Kunihiko Fukushima în 1980.[238] În 1989, Yann LeCun și colegii săi au aplicat backpropagation pe o astfel de arhitectură. La începutul anilor 2000, într-o aplicație industrială, RNC prelucrau deja aproximativ 10% până la 20% din toate cecurile scrise în SUA.[239] Începând cu 2011, implementările rapide de RNC pe unitățile de procesare grafică au câștigat numeroase concursuri de recunoaștere vizuală a formelor.[228]

RNC cu 12 straturi convoluționale au fost utilizate împreună cu învățarea prin întărire de către „AlphaGo Lee” al lui Deepmind, programul care l-a învins pe campionul la go în 2016.[240]

Rețele neuronale profunde recurente

Încă de la început, învățarea profundă a fost aplicată și la învățarea de succesiuni cu rețele neurale recurente[241] care sunt, teoretic, Turing-complete[242] și pot executa programe arbitrare pentru a procesa secvențe arbitrare de intrări. Adâncimea unei RN recurent este nelimitată și depinde de lungimea secvenței sale de intrare; astfel, o RN recurentă este un exemplu de învățare profundă.[228] Rețelele neurale recurente pot fi antrenate prin coborâre de gradient [243] [244] [245] dar suferă de problema dispariției gradientului.[229][246] În 1992, s-a demonstrat că pre-antrenarea nesupravegheată a unui set de rețele neurale recurente poate accelera învățarea ulterioară supravegheată a problemelor secvențiale profunde.[247]

Numeroși cercetători folosesc acum variante ale unei RN recurente pentru învățare profundă numită Long-Short Term Memory (LSTM), publicată de Hochreiter & Schmidhuber în 1997.[248] LSTM este adesea antrenată prin Connectionist Temporal Classification (CTC).[249] La Google, Microsoft și Baidu, această abordare a revoluționat recunoașterea vorbirii.[250][251][252] De exemplu, în 2015, recunoașterea vocală de la Google a înregistrat un salt spectaculos de performanță de 49% cu ajutorul lui LSTM instruit de CTC, disponibil acum prin Google Voice către utilizatorii a miliarde de smartphone-uri.[253] Google a folosit de asemenea LSTM pentru a îmbunătăți traducerea automată,[254] modelarea limbajului[255] și prelucrarea lingvistică multilingvă.[256] LSTM combinat cu RNC a îmbunătățit și descrierea automată a imaginilor[257] și o multitudine de alte aplicații.

Evaluarea progresului

Ca și electricitatea sau motorul cu abur, IA este o tehnologie cu scop general. Nu există un consens despre cum să se caracterizeze sarcinile la care IA tinde să exceleze.[258] Deși proiecte precum AlphaZero au reușit să-și genereze propriile cunoștințe de la zero, multe alte proiecte de învățare automată necesită seturi de date de antrenament mari.[259][260] Cercetătorul Andrew Ng a sugerat, ca o „regulă aproximativă extrem de imperfectă”, că „aproape orice poate fi făcut de un om cu mai puțin de o secundă de gândire mentală, poate să fie, acum sau în viitorul apropiat, automatizat prin utilizarea IA”.[261] Paradoxul lui Moravec sugerează că IA rămâne în urma omului la multe sarcini pentru a căror bună îndeplinire creierul uman a evoluat anume.[125]

Jocurile oferă un punct de referință foarte mediatizat pentru evaluarea ratei progresului. AlphaGo a adus, în preajma lui 2016, sfârșitul epocii testelor cu jocuri de masă. Jocurile de cunoștințe imperfecte oferă noi provocări pentru IA în domeniul teoriei jocurilor.[262][263] E-sporturile, cum ar fi StarCraft, continuă să furnizeze repere publice suplimentare.[264][265] Există numeroase concursuri și premii, cum ar fi Imagenet Challenge, pentru promovarea cercetării în domeniul inteligenței artificiale. Cele mai comune domenii de concurs sunt inteligența automată generală, comportamentul conversațional, data mining, mașini robotizate și fotbal jucat de roboți, pe lângă jocuri convenționale.[266]

„Jocul imitației” (o interpretare a testului Turing din 1950 care evaluează dacă un calculator poate imita un om) este în prezent considerat prea exploatabil pentru a fi un test semnificativ.[267] Un derivat al testului Turing este Testul Turing Public Complet Automatizat pentru Deosebirea Omului de Calculator (Completely Automated Public Turing test to tell Computers and Humans Apart, CAPTCHA). După cum sugerează și numele, acest lucru ajută la determinarea dacă utilizator este o persoană reală sau un computer care simulează un om. Spre deosebire de testul Turing standard, care este administrat de către un om unei mașini, CAPTCHA este administrat de o mașină unui om. Un computer cere unui utilizator să completeze un test simplu, apoi generează o notă pentru acel test. Computerele nu reușesc să rezolve problemele, deci soluțiile corecte sunt considerate a fi rezultatul faptului că testul a fost efectuat de un om. Un tip comun de CAPTCHA este un test care necesită identificarea unor litere, numere sau simboluri distorsionate care apar într-o imagine care ar fi indescifrabilă pentru un calculator.[268]

Testele de „inteligență universale” propuse au scopul de a compara cât de bine se comportă mașinile, oamenii și chiar animalele la seturi de probleme care sunt cât mai generice cu putință. La extrem, suita de test poate conține orice problemă posibilă, ponderată de complexitatea Kolmogorov; din păcate, aceste seturi de probleme tind să fie dominate de exerciții slabe de aplicare a șabloanelor, la care o IA acordată corespunzător poate depăși cu ușurință performanța umană.[269] [270]

Aplicații

Un asistent online automat oferind servicii clienților pe o pagină web — una dintre multele aplicații foarte primitive ale inteligenței artificiale

IA este relevantă pentru orice sarcină intelectuală.[271] Tehnicile moderne de inteligență artificială sunt omniprezente și sunt prea numeroase pentru a fi prezentate exhaustiv aici. Frecvent, atunci când o tehnică ajunge în uz general, ea nu mai este considerată a fi inteligență artificială; acest fenomen este denimit efectul IA.[272]

Printre exemplele de IA foarte vizibile se numără vehiculele autonome (cum ar fi dronele și autoturismele conduse automat), diagnosticul medical, unele creații artistice (cum ar fi poezia), demonstrarea unor teoreme matematice, jocurile (cum ar fi șahul sau go), motoarele de căutare (cum ar fi Google Search), asistenți online (cum ar fi Siri), recunoașterea imaginilor în fotografii, filtrarea spamului, prezicerea întârzierilor zborurilor,[273] prezicerea deciziilor judiciare[274] și direcționarea reclamelor online.[271][275][276]

După ce site-urile de social media au depășit televiziunea ca sursă de știri pentru tineri, organizațiile de știri se bazează tot mai mult pe platformele de social media pentru generarea de distribuție,[277] editorii majori folosesc acum tehnologia inteligenței artificiale pentru a publica mai eficient articole și de a genera volume mai mari de trafic.[278]

Sănătate

Un braț chirurgical al Sistemului Chirurghical Da Vinci

IA se aplică în problema de cost ridicat a dozajului — unde unele rezultate sugerau că IA ar putea economisi 16 miliarde de dolari. În 2016, un studiu de pionierat efectuat în California a constatat că o formulă matematică dezvoltată cu ajutorul IA a determinat în mod corect doza exactă de medicamente imunosupresoare care să fie administrată pacienților implicați în transplante de organe. [279]

Radiografie a unei mâini, cu calcul automat al vârstei oaselor efectuat de un software de calculator

Inteligența artificială pătrunde în industria sănătății ca asistent al medicilor. Potrivit Bloomberg Technology, Microsoft a dezvoltat IA pentru a ajuta medicii să găsească tratamentele corecte pentru cancer.[280] Există o cantitate substanțială de cercetare și un număr mare de medicamente dezvoltate pentru cancer. În detaliu, există peste 800 de medicamente și vaccinuri pentru tratarea cancerului. Acest lucru afectează negativ medicii, deoarece există prea multe opțiuni din care să aleagă, făcând mai dificilă alegerea medicamentelor potrivite pentru pacienți. Microsoft lucrează la un proiect pentru a dezvolta o mașină numită „Hanover”. Obiectivul său este de a memora toate lucrările necesare din domeniul oncologiei și de a ajuta să se prevadă care combinații de medicamente vor fi cele mai eficiente pentru fiecare pacient. Un proiect la care se lucrează în prezent este combaterea leucemiei mieloide, un cancer mortal al cărui tratament nu s-a îmbunătățit de decenii. Un alt studiu a arătat că inteligența artificială este la fel de bună ca medicii instruiți în identificarea cancerelor de piele.[281] Un alt proiect utilizează inteligența artificială pentru a încerca și monitoriza mai mulți pacienți cu risc crescut și acest lucru se face prin punerea de numeroase întrebări fiecărui pacient, pe baza datelor obținute din interacțiunile medicului uman cu pacientul.[282] S-a realizat un studiu cu învățare prin transfer, mașina a efectuat un diagnostic similar unui oftalmolog bine pregătit și ar putea genera o decizie în 30 de secunde dacă pacientul trebuie sau nu să fie trimis la tratament, cu o precizie de peste 95%.[283]

Potrivit CNN, un studiu efectuat de chirurgi de la Centrul Medical National pentru Copii din Washington a demonstrat cu succes o interventie chirurgicală efectuată de un robot autonom. Echipa a supravegheat robotul în timp ce el efectua o intervenție chirurgicală pe țesuturi moi, reparând intestinul rupt al unui porc într-o intervenție chirurgicală deschisă cu o reușită mai bună decât a unui chirurg uman, după afirmațiile echipei.[284] IBM și-a creat propriul calculator de inteligență artificială, IBM Watson, care a depășit inteligența umană (la anumite nivele). Watson nu numai că a câștigat la show-ul de joc Jeopardy! împotriva foștilor campioni[285] dar a fost declarat erou după ce a diagnosticat cu succes o femeie care suferea de leucemie.[286]

Industria auto

Progresele din IA au contribuit la creșterea industriei de automobile prin crearea și evoluția autovehiculelor cu autovehicule. În 2016, existau peste 30 de companii care utilizau IA la crearea mașinilor fără șofer. Câteva companii implicate în IA sunt Tesla, Google și Apple.[287]

Multe componente contribuie la funcționarea autoturismelor. Aceste vehicule incorporează sisteme cum ar fi frânarea, schimbarea benzii de rulare, prevenirea coliziunilor, navigarea și cartografierea. Împreună, aceste sisteme, precum și computerele de înaltă performanță, sunt integrate într-un singur vehicul complex.[288]

Evoluțiile recente în domeniul autovehiculelor autonome au făcut posibilă inovația autoturismelor conduse automat, deși acestea se află încă în faza de testare. Guvernul britanic a adoptat legislație pentru începerea testării unor mici flote de autoturisme fără șofer în 2018.[289] Plutoanele de camioane automate sunt o flotă de autocamioane care conduc în urma unui camion condus de un om, deci plutonul de camioane nu este în întregime autonom. Între timp, Daimler, o companie germană de automobile, testează Freightliner Inspiration, o mașină semi-autonomă de fi folosit numai pe șosele interurbane.[290]

Un factor principal care influențează abilitatea unui automobil de a funcționa fără conducător auto este cartografierea. În general, vehiculul ar putea fi pre-programat cu o hartă a zonei prin care conduce. Această hartă ar include date privind aproximarea luminii stradale și a înălțimii bordurilor pentru ca vehiculul să fie conștient de împrejurimile sale. Cu toate acestea, Google a lucrat la un algoritm al cărui scop este de a elimina nevoia de hărți preprogramate și a creat, în schimb, un dispozitiv care să se poată adapta la o varietate de împrejurimi noi.[291] Unele autovehicule automate nu sunt echipate cu volane sau pedale de frână, așa că s-au concentrat pe cercetări asupra creării unui algoritm capabil să mențină un mediu sigur pentru pasagerii vehiculului prin conștientizarea condițiilor de condus și de viteză.[292]

Un alt factor care influențează capacitatea unui automobil fără șofer este siguranța pasagerului. Pentru a face un automobil fără șofer, inginerii trebuie să-l programeze pentru a gestiona situațiile cu risc ridicat. Aceste situații ar putea include o ciocnire frontală cu pietoni. Scopul principal al mașinii trebuie să fie acela de a lua o decizie care să evite lovirea pietonilor și salvarea pasagerilor în mașină. Dar există o posibilitate ca mașina să aibă nevoie de o decizie care ar pune pe cineva în pericol. Cu alte cuvinte, mașina ar trebui să decidă să salveze pietonii sau pasagerii.[293] Programarea mașinii în aceste situații este esențială pentru un automobil fără conducător auto.

Finanțe și economie

Instituțiile financiare folosesc de mult timp sistemele de rețele neurale artificiale pentru a detecta debite sau cereri de debitare extraordinare, marcându-le pentru a fi cercetate de oameni. Utilizarea IA în sectorul bancar datează din 1987, când Security Pacific National Bank din SUA a înființat un Task force pentru Prevenirea Fraudelor cu scopul de a contracara utilizarea neautorizată a cardurilor de debit. Programe precum Kasisto și Moneystream utilizează IA în serviciile financiare.

Băncile utilizează astăzi sisteme cu inteligență artificială pentru a organiza operațiuni, a menține evidența contabilă, a investi în acțiuni și a gestiona proprietățile. IA poate reacționa la schimbări bruște și în timpul nopții sau în zilele nelucrătoare.[294] În august 2001, roboții au învins oamenii într-o competiție simulată de tranzacționare financiară.[295] IA a redus și frauda și criminalitatea financiară prin monitorizarea modelelor comportamentale ale utilizatorilor pentru orice schimbări anormale sau anomalii.[296]

Utilizarea mașinilor cu IA pe piață în aplicații precum comerțul online și luarea deciziilor a schimbat teoriile economice majore.[297] De exemplu, platformele de cumpărare și vânzare bazate pe IA au schimbat legea cererii și ofertei prin faptul că acum este posibilă estimarea cu ușurință a unor curbe individualizate de cerere și ofertă și, prin urmare, stabilirea prețurilor individualizate. În plus, mașinile cu IA reduc asimetria informației pe piață, făcând astfel piețele mai eficiente, și reducând volumul tranzacțiilor. Printre alte teorii în care IA a avut impact se numără alegerea rațională, așteptările raționale, teoria jocurilor, punctul de cotitură Lewis, optimizarea portofoliului și gândirea contrafactuală.

Jocuri video

În jocurile video, inteligența artificială este utilizată în mod obișnuit pentru a genera un comportament dinamic la personajele nejucător (NPC). În plus, tehnici IA bine cunoscute sunt utilizate în mod curent pentru găsirea de drumuri. Unii cercetători consideră că NPC cu IA în jocuri sunt o „problemă rezolvată” pentru majoritatea cazurilor din producție. Printre jocurile cu IA mai atipice se numără directorul IA din Left 4 Dead (2008) și antrenamentul neuroevoluționar al plutoanelor în Supreme Commander 2 (2010).[298][299]

Armată

Cheltuielile militare mondiale anuale pe robotică au crescut de la 5,1 miliarde de dolari în 2010 la 7,5 miliarde de dolari în 2015.[300][301] Dronele militare capabile de acțiune autonomă sunt considerate pe scară largă o dotare utilă. Mulți cercetători în domeniul inteligenței artificiale încearcă să se distanțeze de aplicațiile militare ale AI. [302]

Audit

Pentru auditul contabilității financiare, IA face posibil auditul continuu. Instrumentele cu IA pot analiza pe loc multe seturi de informații diferite. Beneficiul potențial este reducerea riscului general de audit, creșterea nivelului de asigurare și reducerea duratei auditului.[303]

Publicitate

Se poate utiliza IA pentru a anticipa sau generaliza comportamentul clienților din amprenta lor digitală, pentru a-i viza cu ajutorul unor promoții personalizate sau pentru a construi în mod automat profiluri de client.[304] Un caz documentat arată că companiile de jocuri de noroc online folosesc IA pentru a îmbunătăți direcționarea reclamelor către clienți.[305]

Mai mult, aplicarea modelelor de IA de calcul al personalității poate contribui la reducerea costurilor campaniilor publicitare prin adăugarea de direcționare psihologică la direcționarea , sociodemografică sau comportamentală.[306]

Artă

Inteligența artificială a inspirat numeroase aplicații creative, inclusiv utilizarea sa pentru a produce arte vizuale. Expoziția „Mașini gânditoare: artă și design în era calculatoarelor, 1959-1989” de la MoMA[307] oferă o imagine de ansamblu asupra aplicațiilor istorice ale IA în artă, arhitectură și design. Printre expozițiile recente care prezintă utilizarea de IA pentru a produce artă se numără acțiunile și licitațiile de binefacere sponsorizate de Google de la Fundația Grey Area din San Francisco, unde artiștii au experimentat cu algoritmul deepdream, [308] și expoziția „Unhuman: Art in Age of AI”, care a avut loc în Los Angeles și Frankfurt, în toamna anului 2017.[309][310] În primăvara anului 2018, Association for Computing Machinery a dedicat un număr special al revistei sale subiectului computerelor și artei, evidențiind rolul învățării automate în artă.[311]

Filosofie și etică

Există trei întrebări filosofice legate de IA:

  1. Este posibilă inteligența artificială generală? Poate o mașină să rezolve orice problemă pe care o ființă umană o poate rezolva folosind inteligența? Sau există limite dure pentru ceea ce poate realiza o mașină?
  2. Sunt mașinile inteligente periculoase? Cum putem să ne asigurăm că mașinile se comportă etic și că sunt utilizate în mod etic?
  3. Poate o mașină să aibă minte, conștiință și stări mentale la fel cum au oamenii? Poate o mașină să fie conștientă de sine și, prin urmare, să merite anumite drepturi? Poate o mașină să provoace rău intenționat?

Limitele inteligenței generale artificiale

Poate o mașină să fie inteligentă? Poate „gândi”?

Convenția „politicoasă” a lui Alan Turing,
Nu trebuie să decidem dacă o mașină poate „gândi”; trebuie doar să decidem dacă o mașină poate funcționa inteligent ca o ființă umană. Această abordare a problemelor filosofice asociate cu inteligența artificială formează baza testului Turing.[312]
Propunerea de la Dartmouth
„Fiecare aspect al învățării sau orice altă caracteristică a inteligenței poate fi atât de precis descris încât poate fi făcută o mașină pentru a-l simula”. Această presupunere a fost tipărită în propunerea pentru Conferința de la Dartmouth din 1956 și reprezintă poziția celor mai mulți cercetători din IA.[313]
Ipoteza sistemului de simboluri fizice a lui Newell și Simon
„Un sistem de simboluri fizice are mijloacele necesare și suficiente pentru acțiune inteligentă generală”. Newell și Simon susțin că inteligența constă în operațiuni formale pe simboluri. [314] Hubert Dreyfus argumenta că, dimpotrivă, expertiza umană depinde mai degrabă de instinctul inconștient decât de manipularea simbolică a conștientului și pe un „simț” al situației, mai degrabă decât o cunoaștere simbolică explicită.[315] [316]
Argumentele Gödeliene
Gödel însuși,[317] John Lucas (în 1961) și Roger Penrose (într-un argument mai detaliat începând cu 1989) au susținut cu argumente extrem de tehnice că matematicienii umani pot vedea constant adevărul propriilor lor „afirmații Gödel” și, prin urmare, că au abilități de calcul dincolo de mașinile Turing mecanice.[318] Cu toate acestea, consensul modern în comunitatea științifică și matematică este că aceste „argumente Gödeliene” nu sunt valide.[319][320][321]
Argumentul creierului artificial
Creierul poate fi simulat de mașini și, deoarece creierul este inteligent, creierul simulat trebuie să fie și el inteligent; astfel mașinile pot fi inteligente. Hans Moravec, Ray Kurzweil și alții au susținut că este posibil din punct de vedere tehnologic să se copieze creierul direct în hardware și software, și ca o astfel de simulare să fie în esență identică cu originalul.[143]
Efectul AI
Mașinile sunt deja inteligente, dar observatorii nu își dau seama. Când Deep Blue l-a învins pe Garry Kasparov la șah, mașina se purta inteligent. Cu toate acestea, privitorii neagă de obicei comportamentul unui program cu inteligență artificială, argumentând că nu este în definitiv inteligență „reală”; astfel, inteligența „reală” este orice comportament inteligent pe care oamenii îl pot avea, dar mașinile încă nu. Acesta este cunoscut sub numele de efectul IA: „IA este ceea ce nu s-a făcut încă”.

Probleme potențiale

Utilizarea pe scară largă a inteligenței artificiale ar putea avea consecințe neintenționate care pot fi periculoase sau nedorite. Oamenii de știință de la Institutul pentru Viitorul Vieții au descris, printre altele, câteva obiective de cercetare pe termen scurt pentru a vedea cum IA influențează economia, legile și etica implicate în IA și cum să minimizeze riscurile de securitate aduse de IA. Pe termen lung, oamenii de știință au propus să se continue să se optimizeze funcțiilor, reducând în același timp riscurile posibile de securitate care vin împreună cu noile tehnologii.[322]

Risc existențial

Fizicianul Stephen Hawking, fondatorul Microsoft Bill Gates, și fondatorul SpaceX Elon Musk și-au exprimat îngrijorarea cu privire la posibilitatea ca IA să poată evolua până la punctul în care oamenii nu ar putea să o mai controleze, iar Hawking a teoretizat că acest lucru ar putea „însemna sfârșitul rasei umane”.[323][324][325]

În cartea sa Superintelligence, Nick Bostrom oferă un argument că inteligența artificială va constitui o amenințare pentru omenire. El susține că, dacă alege acțiuni bazate pe atingerea unui anumit scoo ,o IA suficient de inteligentă,va prezenta un comportament convergent, respectiv vc acumularesurse și se va proteja de la oprire. Dacă scopuri IA nu reflectă cele ale umanității — de exemplu, o IA căreia i se cere să calculeze cât mai multe cifre din pi posibil — ar putea face rău umanității pentru a obține mai multe resurse sau pentru a preveni închiderea sa, doar pentru a-și atinge mai bine scopul.

Preocuparea față de riscul produs de inteligența artificială a dus la unele donații și investiții foarte cunoscute. Un grup de titani tehnologici proeminenți, printre care Peter Thiel, Amazon Web Services și Musk, au angajat 1 miliard de dolari pentru OpenAI, o companie nonprofit care vizează promovarea dezvoltării responsabile a IA.[326] Opinia experților din domeniul inteligenței artificiale este diversă, existând fracțiuni considerabile care nu sunt îngrijorate, dar și altele care sunt, de riscul unei IA capabile de supra-umanitate.[327] În ianuarie 2015, Elon Musk a donat zece milioane de dolari Institutului „Viitorul Vieții” pentru a finanța cercetarea privind înțelegerea procesului de decizie în IA. Scopul institutului este „să crească înțelepciunea cu care gestionăm" puterea tot mai mare a tehnologiei. Musk finanțează și companiile care dezvoltă inteligență artificială, cum ar fi Google DeepMind și Vicarious, doar pentru „a urmări ce se întâmplă cu inteligența artificială”.[328] El crede că „există un rezultat potențial periculos.”[329][330]

Pentru ca acest pericol să fie realizat, un IA ipotetic ar trebui să capete putere și inteligență superioară întregii umanități, posibilitate suficient de îndepărtată în viitor ca să nu merite cercetată.[331][332] Alte contraargumente se învârt în jurul ideii că oamenii sunt, fie intrinsec, fie convergent, valoroși din perspectiva unei inteligențe artificiale.[333]

Devalorizarea umanității

Joseph Weizenbaum scria că aplicațiile IA nu pot, prin definiție, să simuleze cu adevărat empatia umană reală și că utilizarea tehnologiei IA în domenii precum serviciul pentru clienți sau psihoterapia[334] este profund greșită. Weizenbaum a fost deranjat și de faptul că cercetătorii IA (și unii filozofi) erau dispuși să vadă mintea umană ca pe un program de calculator (o poziție cunoscută acum sub numele de computaționalism). Pentru Weizenbaum aceste idei sugerează că cercetarea IA ar devaloriza viața umană.[335]

Dreptate socială

O preocupare este că programele IA pot fi programate pentru a fi părtinitoare împotriva anumitor grupuri, cum ar fi femeile și minoritățile, deoarece majoritatea dezvoltatorilor sunt bărbați albi bogați.[336] Sprijinul pentru inteligența artificială este mai mare în rândul bărbaților (cu aprobarea de 47%) decât femeile (35%).

Scăderea cererii pentru munca umană

Relația dintre automatizare și ocuparea forței de muncă este complicată. În timp ce automatizarea elimină locurile de muncă vechi, ea și creează noi locuri de muncă prin efectele microeconomice și macroeconomice.[337] Spre deosebire de valurile anterioare de automatizare, multe locuri de muncă ale clasei mijlocii pot fi eliminate prin inteligența artificială; The Economist afirmă că „îngrijorarea pe care IA ar putea să o facă în cazul muncii calificate ceea ce a făcut mașina cu aburi celei manuale în timpul Revoluției Industriale” merită luat în serios.[338] Estimările subiective ale riscului variază foarte mult; de exemplu, Michael Osborne și Carl Benedikt Frey estimează că 47% din locurile de muncă din SUA sunt „cu risc ridicat” de automatizare potențială, în timp ce raportul OCDE clasifică doar 9% din locurile de muncă din SUA cu „risc ridicat”.[339][340][341] Locurile de muncă cu intervalul de risc extrem sunt cele de tipul paralegal sau bucătar de fast-food, în timp ce cererea de locuri de muncă este probabil să crească pentru profesiile legate de servicii directe, de la asistența medicală personală la cler. [342] Autorul Martin Ford și alții merg mai departe și susțin că un număr mare de locuri de muncă sunt de rutină, repetitive și (pentru o IA) previzibile; Ford avertizează că aceste locuri de muncă ar putea fi automatizate în următoarele decenii și că multe dintre noile locuri de muncă ar putea să nu fie „accesibile persoanelor cu capacități medii”, chiar și prin recalificare. Economiștii subliniază faptul că tehnologia din trecut avea tendința de a crește, și nu de a reduce ocuparea totală a forței de muncă, dar a recunoscut că „suntem pe un teritoriu neexplorat” cu IA.[22]

Arme autonome

Actualmente, peste 50 de țări cercetează roboți de luptă, inclusiv Statele Unite, China, Rusia și Regatul Unit. Mulți oameni preocupați de riscul de IA superinteligent doresc, de asemenea, să limiteze utilizarea soldaților și a dronelor artificiale.[343]

Mașini etice

Mașinile cu inteligență au potențialul de a-și folosi inteligența pentru a preveni daunele și pentru a minimiza riscurile; ele pot avea capacitatea de a folosi raționamentul etic pentru a-și alege mai bine acțiunile în lume. Cercetarea în acest domeniu cuprinde etica mașinii, agenții artificiali morali și IA prietenoasă.

Agenți artificiali morali

Wendell Wallach a introdus conceptul de agent artificial moral (AMA) în cartea sa Morale Machines.[344] Pentru Wallach, AMA au devenit o parte a peisajului de cercetare al inteligenței artificiale, fiind ghidat de cele două întrebări centrale pe care le identifică drept: „Vrea omenirea ca mașinile să ia decizii morale?”[345] și „pot (ro)boții să fie cu adevărat morali?”.[346] Pentru Wallach, întrebarea nu este centrată pe problema dacă mașinile pot demonstra echivalența comportamentului moral, ci pe constrângerile pe care societatea le poate impune asupra dezvoltării AMA.[347]

Etica mașinilor

Domeniul eticii mașinilor se referă la imprimarea de principii etice mașinilor sau la o procedură de descoperire a unei modalități de rezolvare a dilemelor etice pe care le-ar putea întâmpina, permițându-le să funcționeze într-o manieră etică responsabilă prin propriile decizii etice.[348] Domeniul a fost descris în Simpozionul AAAI Fall 2005 privind etica mașinilor: „Cercetările anterioare privind relația dintre tehnologie și etică s-au axat în mare parte pe utilizarea responsabilă și iresponsabilă a tehnologiei de către ființele umane, câțiva oameni fiind interesați de modul în care ființele umane tratează mașinile. În toate cazurile, numai ființele umane s-au angajat în raționamentul etic. A sosit timpul să adăugăm o dimensiune etică cel puțin unora din mașini. Recunoașterea ramificațiilor etice ale comportamentului care implică mașini, precum și evoluțiile recente și potențiale ale autonomiei mașinilor necesită acest lucru. Spre deosebire de hackingul calculatoarelor, problemele legate de proprietatea software-ului, problemele de confidențialitate și alte subiecte care sunt în mod normal atribuite eticii calculatoarelor, etica mașinilor se referă la comportamentul mașinilor față de utilizatorii umani și față de alte mașini. Cercetarea în etica mașinilor este esențială pentru atenuarea preocupărilor cu sistemele autonome — s-ar putea argumenta că noțiunea de mașini autonome fără o asemenea dimensiune este la baza tuturor temerilor legate de inteligența mașinilor. În plus, investigarea eticii mașinilor ar putea permite descoperirea unor probleme cu teoriile etice actuale, îmbunătățindu-ne gândirea despre etică.”[349] Etica mecanică este uneori denumită „moralitatea mașinii”, „etică computațională” sau „moralitate computațională”. O varietate de perspective ale acestui domeniu incipient pot fi găsite în ediția colectivă „Machine Ethics”[348] care provine din simpozionul AAAI Fall 2005 privind etica mașinilor.[349]

IA rău-voitoare și IA prietenoasă

Politologul Charles T. Rubin consideră că IA nu poate fi nici proiectată, nici garantată a fi binevoitoare.[350] El susține că „orice bunăvoință suficient de avansată poate fi indisolubilă de rea-voință”. Oamenii nu ar trebui să presupună că mașinile sau roboții ne vor trata favorabil, deoarece nu există niciun motiv a priori de a crede că ar simpatiza cu sistemul nostru de moralitate, care a evoluat odată cu biologia noastră particulară (pe care IA nu ar împărtăși-o). Software-ul inteligent poate să nu decidă neapărat să susțină existența umanității și ar fi extrem de dificil să se oprească. Acest subiect a început de curând să fie discutat în publicațiile academice ca o adevărată sursă de risc pentru civilizație, oameni și planeta Pământ.

O propunere de abordare a acestei situații este aceea de a se asigura că primul IA inteligent în general este „IA prietenos” și că va fi capabil să controleze IA dezvoltate ulterior. Unii se întreabă dacă acest tip de control ar putea rămâne funcțional.

Cercetătorul de IA Rodney Brooks scria: „cred că este o greșeală să ne îngrijorăm că am putea dezvolta IA rău-voitoare oricând în următoarele câteva sute de ani. Cred că îngrijorarea provine dintr-o eroare fundamentală de a nu distinge diferența dintre progresele recente foarte reale într-un anumit aspect al IA pe de o parte, și enormitatea și complexitatea construirii unei inteligențe voluntare conștiente de sine.”[351]

Conștiința, sentimentul și mintea pentru o mașină

Dacă un sistem cu IA replică toate aspectele cheie ale inteligenței umane, va fi și acest sistem conștient de sine — va avea o minte care are experiențe conștiente? Această întrebare este strâns legată de problema filosofică cu privire la natura conștiinței umane, numită în general problema grea a conștiinței.

Conștiința

David Chalmers a identificat două probleme în înțelegerea minții, pe care le-a numit problemele „grea” și „ușoară” ale conștiinței.[352] Problema ușoară este înțelegerea modului în care creierul procesează semnale, face planuri și controlează comportamentul. Problema grea explică cum se simte sau de ce ar trebui să se simtă. Prelucrarea informației umane este ușor de explicat, însă experiența subiectivă umană este dificil de explicat.

De exemplu, să considerăm ceea ce se întâmplă atunci când unei persoane i se arată un specimen de culoare și ea o identifică, spunând că este „roșu”. Problema ușoară necesită doar înțelegerea mecanismelor din creier care fac posibil ca o persoană să știe că specimenul de culoare este roșu. Problema dificilă este că oamenii mai știu și altceva — ei știu și cum arată roșu. (o persoană născută fără vedere poate să știe că ceva este roșu fără să știe ce arată roșu.) [l] Toată lumea știe că experiența subiectivă există, deoarece o au în fiecare zi (de exemplu, toți oamenii care pot vedea știu ce este roșu). Problema dificilă explică modul în care creierul îl creează, de ce există, și cum este diferit de cunoștințe și de alte aspecte ale creierului.

Computaționalism și funcționalism

Computaționalismul este poziția din domeniul filosofiei mințiimintea umană, creierul uman sau ambele sunt sisteme de procesare a informațiilor și că gândirea este o formă de calcul.[353] Computaționalismul susține că relația dintre minte și corp este similară sau identică cu relația dintre software și hardware și, astfel, poate fi o soluție la problema minții și corpului. Această poziție filosofică a fost inspirată de activitatea cercetătorilor din IA și a specialiștilor în științele cognitive din anii 1960 și a fost inițial propusă de filozofii Jerry Fodor și Hilary Putnam.

Ipoteza IA puternice

Poziția filosofică pe care John Searle a numit-o „IA puternică” afirmă: „calculatorul programat corespunzător, cu intrările și ieșirile corecte ar avea astfel o minte în același sens cu care oamenii au minți”.[354] Searle contrazice această afirmație cu argumentul camerei chinezești, care ne cere să privim în interiorul calculatorului și să încercăm să găsim unde ar putea fi „mintea”.[355]

Drepturile roboților

Dacă o mașină poate fi creată cu inteligență, ar putea simți? Dacă poate simți, are aceleași drepturi ca și omul? Această problemă, cunoscută acum ca „drepturile roboților”, este în prezent analizată de către Institutul pentru Viitor din California, deși mulți critici consideră că discuția este prematură.[356] Unii critici ai transumanismului susțin că orice drepturi ipotetice ale robotului ar rezida pe un spectru, cu drepturile animalelor și drepturile omului.[357] Subiectul este discutat în profunzime în filmul documentar Plug & Pray din 2010.[358]

Superinteligența

Există limite pentru cât de inteligente pot fi mașinile sau hibrizii om-mașină? O superinteligență, hiperintelligență sau inteligență supraomenească este un agent ipotetic care ar avea o inteligență care depășește cu mult pe cea a celei mai strălucite și mai talentate minți umane. Superinteligența se poate referi și la forma sau gradul de inteligență posedat de un astfel de agent.[137]

Singularitatea tehnologică

Dacă cercetarea despre IA puternică ar produce software suficient de inteligent, s-ar putea reprograma și îmbunătăți singură. Software-ul îmbunătățit ar fi chiar mai bun la a se îmbunătăți singur, ceea ce ar duce la o auto-îmbunătățire recursivă.[359] Noua inteligență ar putea astfel să crească exponențial și să depășească în mod dramatic oamenii. Scriitorul de science fiction Vernor Vinge a numit acest scenariu „singularitatea”.[360] Singularitatea tehnologică este atunci când accelerarea progresului în tehnologii va provoca un efect în cascadă, în care inteligența artificială va depăși controlul și capacitatea intelectuală a omului, schimbând astfel radical sau chiar punând capăt civilizației. Deoarece capacitățile unei astfel de inteligențe pot fi imposibil de înțeles, singularitatea tehnologică este un eveniment dincolo de care evenimentele sunt imprevizibile sau chiar imposibil de imaginat.[360][137]

Ray Kurzweil a folosit legea lui Moore (care descrie îmbunătățirea exponențială neîncetată a tehnologiei digitale) pentru a calcula că calculatoarele desktop vor avea aceeași putere de procesare ca și creierul uman până în anul 2029 și prezice că singularitatea va avea loc în 2045. [360]

Transumanismul

Proiectantul de roboți Hans Moravec, ciberneticianul Kevin Warwick și inventatorul Ray Kurzweil au prezis că oamenii și mașinile se vor îmbina în viitor în cyborgi care vor fi mai capabili și mai puternici decât oricare dintre ei.[361] Această idee, numită transumanism, are rădăcini în Aldous Huxley și Robert Ettinger .

Edward Fredkin susține că „inteligența artificială este următoarea etapă a evoluției”, o idee propusă inițial de „Darwin între mașini” a lui Samuel Butler (1863) și extinsă de George Dyson în cartea cu același nume în 1998.[362]

În ficțiune

Însuși cuvântul „robot” a fost inventat de Karel Čapek în piesa de teatru RUR din 1921, titlul ei însemnând „Roboți Universali Rossum

Ființele artificiale capabile de gândire au apărut ca instrumente narative încă din antichitate[24] și au fost o temă persistentă în science fiction.

Un motiv comun în aceste lucrări a început cu Frankenstein al lui Mary Shelley, unde o creație umană devine o amenințare pentru stăpânii săi. Motivul apare și în opere ca în cartea 2001: O Odisee Spațială de Arthur C. Clarke și filmul cu același titlu al lui Stanley Kubrick (ambele din 1968), cu HAL 9000, computerul ucigaș care controlează nava spațială Discovery One; precum și The Terminator (1984) și The Matrix. În schimb, roboți credincioși sunt rari, cum ar fi Gort din Ziua în care Pământul s-a oprit (1951) și Bishop din Aliens (1986), sunt mai puțin proeminenți în cultura populară.[363]

Isaac Asimov a introdus cele trei legi ale roboticii în multe cărți și povestiri, mai ales seria „Multivac” despre un computer super-inteligent cu același nume. Legile lui Asimov sunt adesea aduse în discuțiile nespecialiștilor în etica mașinilor;[364] aproape toți cercetătorii de inteligență artificială sunt familiarizați cu legile lui Asimov prin cultura populară, dar ei le consideră în general inutile din mai multe motive, dintre care unul este ambiguitatea lor.[365]

Transumanismul (îmbinarea oamenilor și mașinilor) este explorat în manga Ghost in the Shell și în seria science-fiction Dune. În anii 1980, seria Sexy Robots a artistului Hajime Sorayama a fost pictată și publicată în Japonia, reprezentând forma umană organică reală cu piei metalice pline de viață, și ulterior cartea „Gynoids", care a fost folosită de sau chiar i-a influențat pe producători de film, între care George Lucas. Sorayama nu a considerat niciodată că acești roboți organici sunt o parte reală a naturii, ci mereu un produs nenatural al minții umane, o fantezie existentă doar în minte chiar și atunci când este realizată în formă reală.

Mai multe lucrări utilizează IA pentru a ne forța să ne confruntăm cu întrebarea fundamentală despre ce ne face să fim umani, arătându-ne ființe artificiale care au capacitatea de a simți și, astfel, de a suferi. Acest lucru apare în „RUR” a lui Karel Čapek, în filmele „Inteligența artificială” și „Ex Machina”, precum și în romanul „Visează androizii oi electrice?” de Philip K. Dick. Dick consideră ideea că înțelegerea subiectivității umane este modificată de tehnologia creată cu inteligența artificială.[366]

Note de completare

  1. ^ Acțiunea de a acorda recompensele poate fi chiar ea formalizată sau automatizată într-o „funcție de recompensă”.
  2. ^ Terminologia variază; vezi caracterizările algoritmilor.
  3. ^ Adversarial vulnerabilities can also result in nonlinear systems, or from non-pattern perturbations. Some systems are so brittle that changing a single adversarial pixel predictably induces misclassification.
  4. ^ O asemenea „victorie a taberei neat” poate fi o consecință a faptului că domeniul a devenit mai matur; cu toate acestea, AIMA afirmă că în practică atât abordările neat cât și cele scruffy continuă să fie necesare în cercetarea IA.
  5. ^ „Există multe tipuri diferite de incertitudine, neclaritate și ignoranță... [Noi] confirmăm independent inadecvarea sistemelor de raționare pe incertitudine, care propagă factori numerici numai după ce conectori apar în aserțiuni.”[187]
  6. ^ Expectation-Maximization, unul din cei mai populari algoritmi de învățare automată, permite clusterizarea în prezența unor variabile latente necunoscute[196]
  7. ^ Cea mai frecvent folosită metodă de IA analogic până pe la jumătatea anilor 1990[207]
  8. ^ SVM a luat locul lui k-NN în anii 1990.[209]
  9. ^ Bayes naiv ar fi „cea mai utilizată metodă de învățare” la Google, în parte datorită scalabilității sale.[212]
  10. ^ Each individual neuron is likely to participate in more than one concept.
  11. ^ Conducerea vehicului din proiectul „No Hands Across America” 1995 a necesitat „doar câteva intervenții umane”.
  12. ^ Aceasta se bazează pe Camera lui Mary, un experiment imaginar propus pentru prima oară de Frank Jackson în 1982

Bibliografie

Note

  1. ^ a b Definiția AI ca studiu al agenților inteligenți :
  2. ^ a b Kaplan Andreas; Michael Haenlein (2018) Siri, Siri în mâna mea, cine este cel mai faurător din țară? Cu privire la interpretările, ilustrațiile și implicațiile inteligenței artificiale, orizonturile de afaceri, 62 (1)
  3. ^ Russell & Norvig 2009, p. 2.
  4. ^ Maloof, Mark. „Artificial Intelligence: An Introduction, p. 37” (PDF). georgetown.edu. 
  5. ^ Citare goală (ajutor) 
  6. ^ a b Russell & Norvig 2009.
  7. ^ a b „AlphaGo – Google DeepMind”. Arhivat din original la . 
  8. ^ a b Optimismul AI timpuriu:
  9. ^ a b c Boom-ul anilor 1980: creșterea sistemelor expert , Proiectul de generație a cincea , Alvey , MCC , SCI :
  10. ^ a b Primul AI de iarnă , amendamentul Mansfield , raportul Lighthill
  11. ^ a b A doua iarnă AI :
  12. ^ a b c AI devine extrem de reușită la începutul secolului XXI
  13. ^ a b Pamela McCorduck (2004 , p.   424) scrie despre "distrugerea gravă a AI în subdomenii - viziune, limbaj natural, teorie a deciziilor, algoritmi genetici, robotică   ... și cu subcâmpuri proprii - care nu ar avea nimic de spus unul pe celălalt ".
  14. ^ a b c Această listă de trăsături inteligente se bazează pe subiectele abordate de manualele AI majore, printre care:
  15. ^ a b c Inteligența biologică vs. inteligența în general:
  16. ^ a b c Neats vs. scruffies :
  17. ^ a b Simbolic vs. AI sub-simbolic:
  18. ^ a b Inteligența generală ( AI puternică ) este discutată în introducerea populară a AI:
  19. ^ Vedeți propunerea de la Dartmouth , sub Filosofie , de mai jos.
  20. ^ a b Aceasta este o idee centrală a mașinilor care gândesc Pamela McCorduck . Ea scrie: "Îmi place să mă gândesc la inteligența artificială ca la apoteoza științifică a unei tradiții culturale venerabile". ( McCorduck 2004 , p.   34) "Inteligența artificială într-o formă sau alta este o idee care a pătruns în istoria intelectuală occidentală, un vis în nevoie urgentă de a fi realizat". ( McCorduck 2004 , p.   xviii) "Istoria noastră este plină de încercări - nerăbdător, amețitor, comic, serios, legendar și real - de a face inteligența artificială, de a reproduce ceea ce ne este esențial - ocolind mijloacele obișnuite. oferind ceea ce atelierele noastre nu au putut, ne-am angajat mult timp în această formă ciudată de autoproducere ". ( McCorduck 2004 , p.   3) Ea urmărește dorința înapoi la rădăcinile sale elenistice și o numește dorința de a "fortifica zeii". ( McCorduck 2004 , p.   340-400)
  21. ^ „Stephen Hawking believes AI could be mankind's last accomplishment”. BetaNews. . Arhivat din original la . 
  22. ^ a b Ford, Martin; Colvin, Geoff (). „Will robots create more jobs than they destroy?”. The Guardian. Accesat în . 
  23. ^ a b Aplicațiile AI utilizate pe scară largă în spatele scenei:
  24. ^ a b AI în mit:
  25. ^ AI în știința ficțiunii timpurii.
  26. ^ Raționament formal:
  27. ^ "Inteligență artificială." Encyclopedia of Emerging Industries, editat de Lynn M. Pearce, ediția a 6-a, Gale, 2011, pp. 73-80. Gale Virtual Reference Library, http://go.galegroup.com/ps/anonymous?id=GALECX1930200017 . Accesat la 31 martie 2018.
  28. ^ Russell & Norvig 2009, p. 16.
  29. ^ Conferința de la Dartmouth :
  30. ^ Hegemonia participanților la conferința de la Dartmouth:
  31. ^ Russell & Norvig 2003, p. 18.
  32. ^ Schaeffer J. (2009) Nu a reușit Samuel să rezolve acel joc? În: Un salt înainte. Springer, Boston, MA
  33. ^ Samuel, A. L. (iulie 1959). „Some Studies in Machine Learning Using the Game of Checkers”. IBM Journal of Research and Development. 3 (3): 210–229. doi:10.1147/rd.33.0210. 
  34. ^ " Anii de Aur " ai AI (programe de raționalizare simbolică de succes 1956-1973):
  35. ^ DARPA atrage bani în cercetare pur nedirecționată în AI în anii 1960:
  36. ^ AI în Anglia:
  37. ^ Lighthill 1973.
  38. ^ a b Sistem expert:
  39. ^ a b Sunt preferate metodele formale ("Victoria neaturilor "):
  40. ^ McCorduck 2004, pp. 480–483.
  41. ^ Markoff 2011.
  42. ^ „Ask the AI experts: What's driving today's progress in AI?”. McKinsey & Company (în engleză). Accesat în . 
  43. ^ Administrator. „Kinect's AI breakthrough explained”. i-programmer.info. Arhivat din original la . 
  44. ^ Rowinski, Dan (). „Virtual Personal Assistants & The Future Of Your Smartphone [Infographic]”. ReadWrite. Arhivat din original la . 
  45. ^ „Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol”. BBC News. . Arhivat din original la . Accesat în . 
  46. ^ „After Win in China, AlphaGo's Designers Explore New AI”. Wired. . Arhivat din original la . 
  47. ^ „World's Go Player Ratings”. mai 2017. Arhivat din original la . 
  48. ^ „柯洁迎19岁生日 雄踞人类世界排名第一已两年” (în Chinese). mai 2017. Arhivat din original la . 
  49. ^ a b Clark, Jack (). „Why 2015 Was a Breakthrough Year in Artificial Intelligence”. Bloomberg News. Arhivat din original la . Accesat în . After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever. 
  50. ^ „Reshaping Business With Artificial Intelligence”. MIT Sloan Management Review (în engleză). Accesat în . 
  51. ^ Lorica, Ben (). „The state of AI adoption”. O'Reilly Media (în engleză). Accesat în . 
  52. ^ „Who's afraid of artificial intelligence in China? | DW | 18.09.2018”. DW.COM (în engleză). septembrie 2018. Accesat în . 
  53. ^ „Review | How two AI superpowers – the U.S. and China – battle for supremacy in the field”. Washington Post (în engleză). . Accesat în . 
  54. ^ Domingos 2015, Chapter 5.
  55. ^ Domingos 2015, Chapter 7.
  56. ^ Lindenbaum, M., Markovitch, S. și Rusakov, D. (2004). Eșantionare selectivă pentru clasificatorii cei mai apropiați. Învățarea în mașină, 54 (2), 125-152.
  57. ^ Domingos 2015, Chapter 1.
  58. ^ a b Intractabilitatea și eficiența și explozia combinatorică :
  59. ^ Domingos 2015, Chapter 2, Chapter 3.
  60. ^ Hart, P. E.; Nilsson, N. J.; Raphael, B. (). „Correction to "A Formal Basis for the Heuristic Determination of Minimum Cost Paths"”. SIGART Newsletter (37): 28–29. doi:10.1145/1056777.1056779. 
  61. ^ „Algorithm in Artificial Intelligence”. 
  62. ^ Domingos 2015, Chapter 2, Chapter 4, Chapter 6.
  63. ^ „Can neural network computers learn from experience, and if so, could they ever become what we would call 'smart'?”. Scientific American (în engleză). . Accesat în . 
  64. ^ Domingos 2015, Chapter 6, Chapter 7.
  65. ^ Domingos 2015, p. 286.
  66. ^ „Single pixel change fools AI programs”. BBC News. . Accesat în . 
  67. ^ „AI Has a Hallucination Problem That's Proving Tough to Fix”. WIRED. . Accesat în . 
  68. ^ Goodfellow, Ian J., Jonathon Shlens și Christian Szegedy. "Explicarea și valorificarea exemplelor contradictorii". arXiv preprint arXiv: 1412.6572 (2014).
  69. ^ Matti, D.; Ekenel, H. K.; Thiran, J. P. (). Combining LiDAR space clustering and convolutional neural networks for pedestrian detection. 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). pp. 1–6. doi:10.1109/AVSS.2017.8078512. ISBN 978-1-5386-2939-0. 
  70. ^ Ferguson, Sarah; Luders, Brandon; Grande, Robert C.; How, Jonathan P. (). Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions. Algorithmic Foundations of Robotics XI. Springer Tracts in Advanced Robotics (în engleză). 107. Springer, Cham. pp. 161–177. doi:10.1007/978-3-319-16595-0_10. ISBN 978-3-319-16594-3. 
  71. ^ „Cultivating Common Sense | DiscoverMagazine.com”. Discover Magazine. . Accesat în . 
  72. ^ Davis, Ernest; Marcus, Gary (). „Commonsense reasoning and commonsense knowledge in artificial intelligence”. Communications of the ACM. 58 (9): 92–103. doi:10.1145/2701413. 
  73. ^ Winograd, Terry (ianuarie 1972). „Understanding natural language”. Cognitive Psychology. 3 (1): 1–191. doi:10.1016/0010-0285(72)90002-3. 
  74. ^ „Don't worry: Autonomous cars aren't coming tomorrow (or next year)”. Autoweek. . Accesat în . 
  75. ^ Knight, Will (). „Boston may be famous for bad drivers, but it's the testing ground for a smarter self-driving car”. MIT Technology Review (în engleză). Accesat în . 
  76. ^ Prakken, Henry (). „On the problem of making autonomous vehicles conform to traffic law”. Artificial Intelligence and Law. 25 (3): 341–363. doi:10.1007/s10506-017-9210-0. 
  77. ^ Rezolvarea problemelor, rezolvarea puzzle-urilor, jocul și deducerea:
  78. ^ Înțelegere neechivă:
  79. ^ Evidența psihologică a raționamentului sub-simbolic:
  80. ^ Reprezentarea cunoștințelor :
  81. ^ Tehnologia cunoștințelor :
  82. ^ a b Reprezentarea categoriilor și a relațiilor: Rețele semantice , logica descriptivă , moștenire (inclusiv cadre și scripturi ):
  83. ^ a b Reprezentarea evenimentelor și a timpului: Calculul situației , calculul evenimentului , calculul fluent (inclusiv rezolvarea problemei cadrului ):
  84. ^ a b Calculul cauzal :
  85. ^ a b Reprezentarea cunoștințelor despre cunoaștere: Calculul credinței , logica modală :
  86. ^ Sikos, Leslie F. (iunie 2017). Description Logics in Multimedia Reasoning. Cham: Springer. doi:10.1007/978-3-319-54066-5. ISBN 978-3-319-54066-5. 
  87. ^ Ontologie :
  88. ^ Smoliar, Stephen W.; Zhang, HongJiang (). „Content based video indexing and retrieval”. IEEE Multimedia. 1.2: 62–72. 
  89. ^ Neumann, Bernd; Möller, Ralf (ianuarie 2008). „On scene interpretation with description logics”. Image and Vision Computing. 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013. 
  90. ^ Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (). „Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations”. Journal of the American Medical Informatics Association. 13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681Accesibil gratuit. PMID 16622160. 
  91. ^ MCGARRY, KEN (). „A survey of interestingness measures for knowledge discovery”. The Knowledge Engineering Review. 20 (1): 39. doi:10.1017/S0269888905000408. 
  92. ^ Bertini, M; Del Bimbo, A; Torniai, C (). „Automatic annotation and semantic retrieval of video sequences using multimedia ontologies”. MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682. 
  93. ^ Problemă de calificare :
  94. ^ a b Raționamentul implicit și logica implicită , logica non-monotonică , circumscripția , ipoteza închisă a lumii , răpirea (Poole et al. , Răpirea locurilor sub "raționamentul implicit", Luger et al.
  95. ^ Lățimea cunoștințelor comune:
  96. ^ Dreyfus & Dreyfus 1986.
  97. ^ Gladwell 2005.
  98. ^ a b Cunoștințe de specialitate ca intuiție întrupată :
  99. ^ Planificare :
  100. ^ a b Teoria valorilor informațiilor :
  101. ^ Planificarea clasică:
  102. ^ Planificarea și acționarea în domenii nedeterministe: planificarea condiționată, monitorizarea execuției, replanificarea și planificarea continuă:
  103. ^ Planificarea multi-agent și comportamentul emergent:
  104. ^ Alan Turing discussed the centrality of learning as early as 1950, in his classic paper "Computing Machinery and Intelligence".(Turing 1950) In 1956, at the original Dartmouth AI summer conference, Ray Solomonoff wrote a report on unsupervised probabilistic machine learning: "An Inductive Inference Machine".(Solomonoff 1956)
  105. ^ Aceasta este o forma a definitiei masinilor de invatare a lui Tom Mitchell : "Un program de calculator este setat sa invete dintr-o experienta E in ceea ce priveste o sarcina T si o masura de performanta P daca performanta ei pe T masurata prin P se imbunatateste cu experiența E ".
  106. ^ a b Învățare :
  107. ^ „What is Unsupervised Learning?”. deepai.org. 
  108. ^ Jordan, M. I.; Mitchell, T. M. (). „Machine learning: Trends, perspectives, and prospects”. Science. 349 (6245): 255–260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243. 
  109. ^ Consolidarea învățării :
  110. ^ Procesarea limbajului natural :
  111. ^ "Versatile question answering systems: seeing in synthesis" Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol., Mittal et al., IJIIDS, 5(2), 119–142, 2011
  112. ^ Aplicații ale prelucrării limbajului natural, inclusiv recuperarea informațiilor (de exemplu miniere text ) și traducere automată :
  113. ^ Cambria, Erik; White, Bebo (mai 2014). „Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]”. IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227. 
  114. ^ Percepția mașinii :
  115. ^ Recunoașterea vorbelor :
  116. ^ Recunoașterea obiectelor :
  117. ^ Viziunea computerului :
  118. ^ Robotica :
  119. ^ a b Spațiu de mișcare și de configurare :
  120. ^ a b Tecuci 2012.
  121. ^ Maparea robotică (localizare, etc):
  122. ^ Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (decembrie 2016). „Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age”. IEEE Transactions on Robotics. 32 (6): 1309–1332. doi:10.1109/TRO.2016.2624754. 
  123. ^ Moravec, Hans (). Mind Children. Harvard University Press. p. 15. 
  124. ^ Chan, Szu Ping (). „This is what will happen when robots take over the world”. Accesat în . 
  125. ^ a b „IKEA furniture and the limits of AI”. The Economist (în engleză). . Accesat în . 
  126. ^ Kismet.
  127. ^ Citare goală (ajutor) 
  128. ^ Scassellati, Brian (). „Theory of mind for a humanoid robot”. Autonomous Robots. 12 (1): 13–24. doi:10.1023/A:1013298507114. 
  129. ^ Cao, Yongcan; Yu, Wenwu; Ren, Wei; Chen, Guanrong (februarie 2013). „An Overview of Recent Progress in the Study of Distributed Multi-Agent Coordination”. IEEE Transactions on Industrial Informatics. 9 (1): 427–438. doi:10.1109/TII.2012.2219061. 
  130. ^ Thro 1993.
  131. ^ Edelson 1991.
  132. ^ Tao & Tan 2005.
  133. ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (septembrie 2017). „A review of affective computing: From unimodal analysis to multimodal fusion”. Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. 
  134. ^ Emoția și calculul afectiv :
  135. ^ Citare goală (ajutor) 
  136. ^ Pennachin, C.; Goertzel, B. (). Contemporary Approaches to Artificial General Intelligence. Artificial General Intelligence. Cognitive Technologies. Cognitive Technologies. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-540-23733-4. 
  137. ^ a b c Citare goală (ajutor) 
  138. ^ „The superhero of artificial intelligence: can this genius keep it in check?”. the Guardian (în engleză). . Accesat în . 
  139. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A.; Veness, Joel; Bellemare, Marc G.; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K. (). „Human-level control through deep reinforcement learning”. Nature. 518 (7540): 529–533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236. PMID 25719670. 
  140. ^ Sample, Ian (). „Google's DeepMind makes AI program that can learn like a human”. the Guardian (în engleză). Accesat în . 
  141. ^ „From not working to neural networking”. The Economist (în engleză). . Accesat în . 
  142. ^ Domingos 2015.
  143. ^ a b Argumentele creierului artificial : AI necesită o simulare a funcționării creierului uman
  144. ^ Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (decembrie 2010). „A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures”. Neurocomputing. 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012. 
  145. ^ Nils Nilsson writes: "Simply put, there is wide disagreement in the field about what AI is all about" (Nilsson 1983, p. 10).
  146. ^ Precursorii imediali ai AI:
  147. ^ Haugeland 1985 , pp.   112-117
  148. ^ Cel mai dramatic caz al AI sub-simbolic care a fost împins în fundal a fost critica devastatoare a perceptronilor de către Marvin Minsky și Seymour Papert în 1969. A se vedea Istoria AI , AI iarnă , sau Frank Rosenblatt .
  149. ^ Simulare cognitivă, Newell și Simon , AI la CMU (numită apoi Carnegie Tech ):
  150. ^ Soar (istoric):
  151. ^ Cercetarea McCarthy și AI la SAIL și SRI International :
  152. ^ Cercetarea AI la Edinburgh și în Franța, nașterea lui Prolog :
  153. ^ AI la MIT sub Marvin Minsky în anii 1960  :
  154. ^ Cyc :
  155. ^ Cunoașterea revoluției:
  156. ^ Frederick, Hayes-Roth; William, Murray; Leonard, Adelman. „Expert systems” (în engleză). doi:10.1036/1097-8542.248550. 
  157. ^ Abordări integrate la AI:
  158. ^ Weng et al. 2001.
  159. ^ Lungarella et al. 2003.
  160. ^ Asada et al. 2009.
  161. ^ Oudeyer 2010.
  162. ^ Renasterea conexiunii :
  163. ^ Computational intelligence
  164. ^ Hutson, Matthew (). „Artificial intelligence faces reproducibility crisis”. Science (în engleză). pp. 725–726. Bibcode:2018Sci...359..725H. doi:10.1126/science.359.6377.725. Accesat în . 
  165. ^ Norvig 2012.
  166. ^ Langley 2011.
  167. ^ Katz 2012.
  168. ^ Paradigma agentului inteligent :
  169. ^ Arhitecturi de agenți , sisteme hibride inteligente :
  170. ^ Sistem de control ierarhic :
  171. ^ Laird, John (). „Extending the Soar cognitive architecture”. Frontiers in Artificial Intelligence and Applications. 171: 224. 
  172. ^ Lieto, Antonio; Bhatt, Mehul; Oltramari, Alessandro; Vernon, David (mai 2018). „The role of cognitive architectures in general artificial intelligence”. Cognitive Systems Research. 48: 1–3. doi:10.1016/j.cogsys.2017.08.003. 
  173. ^ Algoritmi de căutare :
  174. ^ Îmbinare spre înainte , înlănțuire înapoi , clauze Horn și deducere logică ca căutare:
  175. ^ Căutarea și planificarea spațiului de stat :
  176. ^ Căutări neinformate ( prima căutare în lățime, prima căutare în profunzime și căutare generală în spațiu de stare ):
  177. ^ Căutări euristice sau informate (de exemplu, cel mai bine la început și A * ):
  178. ^ Căutări de optimizare :
  179. ^ Programare genetică și algoritmi genetici :
  180. ^ Viața artificială și învățarea bazată pe societate:
  181. ^ Daniel Merkle; Martin Middendorf (). „Swarm Intelligence”. În Burke, Edmund K.; Kendall, Graham. Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques (în engleză). Springer Science & Business Media. ISBN 978-1-4614-6940-7. 
  182. ^ Logică :
  183. ^ Satplan :
  184. ^ Învățarea bazată pe explicații, învățarea bazată pe relevanță , programarea logică inductivă , raționamentul bazat pe caz :
  185. ^ Logica propozițională :
  186. ^ Prima logică și caracteristici precum egalitatea :
  187. ^ Elkin, Charles (). „The paradoxical success of fuzzy logic”. IEEE Expert. 9 (4): 3–49. CiteSeerX 10.1.1.100.8402Accesibil gratuit. doi:10.1109/64.336150. 
  188. ^ Fizica logică :
  189. ^ „What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic?”. Scientific American (în engleză). Accesat în . 
  190. ^ "Calculul credinței și rațiunea incertă", Yen-Teh Hsia
  191. ^ a b Domingos 2015, chapter 6.
  192. ^ Demey, Lorenz; Kooi, Barteld; Sack, Joshua (). „Logic and Probability”. Accesat în . 
  193. ^ Metode stochastice pentru raționamentul incert:
  194. ^ Rețelele bayesiene :
  195. ^ Bayesian algoritmul de inferență :
  196. ^ Domingos 2015, p. 210.
  197. ^ Învățarea Bayesian și algoritmul de așteptare-maximizare :
  198. ^ Teoria deciziei Bayesian și rețelele decizionale Bayesian:
  199. ^ a b c Modele temporale stochastice:
  200. ^ teoria deciziei și analiza deciziei :
  201. ^ Markov procese decizionale și rețele dinamice de decizie :
  202. ^ Teoria jocului și designul mecanismului :
  203. ^ Metode statistice de învățare și clasificatori :
  204. ^ Arborele de decizie :
  205. ^ Domingos 2015, p. 88.
  206. ^ a b Rețele neuronale și conexiune:
  207. ^ Domingos 2015, p. 187.
  208. ^ Cel mai apropiat algoritm de vecinătate :
  209. ^ Domingos 2015, p. 188.
  210. ^ metode de kernel, cum ar fi mașină vector de suport :
  211. ^ Model de amestec gaussian :
  212. ^ Domingos 2015, p. 152.
  213. ^ Naive Bayes clasificator :
  214. ^ Clasificarea performanțelor:
  215. ^ Russell & Norvig 2009, 18.12: Learning from Examples: Summary.
  216. ^ Domingos 2015, Chapter 4.
  217. ^ „Why Deep Learning Is Suddenly Changing Your Life”. Fortune. . Accesat în . 
  218. ^ „Google leads in the race to dominate artificial intelligence”. The Economist (în engleză). . Accesat în . 
  219. ^ Rețelele neuronale de alimentare , perceptronurile și rețelele radiale de bază :
  220. ^ Învățarea competitivă , învățarea coincidenței Hebbian , rețelele Hopfield și rețelele de atractori:
  221. ^ Seppo Linnainmaa (1970). Reprezentarea erorii cumulative de rotunjire a unui algoritm ca expansiune Taylor a erorilor locale de rotunjire. Teza de masterat (în limba finlandeză), Univ. Helsinki, 6-7.
  222. ^ Griewank, Andreas (2012). Cine a inventat modul invers de diferențiere? Povești de optimizare, Documenta Matematica, Extra Volume ISMP (2012), 389-400.
  223. ^ Paul Werbos , "Dincolo de regresie: noi instrumente de predicție și analiză în științele comportamentale", teză de doctorat, Universitatea Harvard , 1974.
  224. ^ Paul Werbos (1982). Applications of advances in nonlinear sensitivity analysis. In System modeling and optimization (pp. 762–770). Springer Berlin Heidelberg. Online Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol.
  225. ^ Backpropagation :
  226. ^ Memoria temporală ierarhică :
  227. ^ „Artificial intelligence can 'evolve' to solve problems”. Science | AAAS (în engleză). . Accesat în . 
  228. ^ a b c d Schmidhuber, J. (). „Deep Learning in Neural Networks: An Overview”. Neural Networks. 61: 85–117. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. 
  229. ^ a b Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press. Online Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol.
  230. ^ Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P. (). „Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups”. IEEE Signal Processing Magazine. 29 (6): 82–97. doi:10.1109/msp.2012.2205597. 
  231. ^ Schmidhuber, Jürgen (). „Deep Learning”. Scholarpedia. 10 (11): 32832. Bibcode:2015SchpJ..1032832S. doi:10.4249/scholarpedia.32832. 
  232. ^ Rina Dechter (1986). Learning while searching in constraint-satisfaction problems. University of California, Computer Science Department, Cognitive Systems Laboratory.Online Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol.
  233. ^ Igor Aizenberg, Naum N. Aizenberg, Joos PL Vandewalle (2000). Neuronii binari multi-valori și universali: teorie, învățare și aplicații. Springer Știință și Business Media.
  234. ^ Ivakhnenko, Alexey (). Cybernetic Predicting Devices. Kiev: Naukova Dumka. 
  235. ^ Ivakhnenko, Alexey (). „Polynomial theory of complex systems”. IEEE Transactions on Systems, Man and Cybernetics (4): 364–378. 
  236. ^ Hinton 2007.
  237. ^ Research, AI (). „Deep Neural Networks for Acoustic Modeling in Speech Recognition”. airesearch.com. Accesat în . 
  238. ^ Fukushima, K. (). „Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position”. Biological Cybernetics. 36 (4): 193–202. doi:10.1007/bf00344251. PMID 7370364. 
  239. ^ Yann LeCun (2016). Slides on Deep Learning Online Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol.
  240. ^ Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew (). „Mastering the game of Go without human knowledge”. Nature. 550 (7676): 354–359. Bibcode:2017Natur.550..354S. doi:10.1038/nature24270. ISSN 0028-0836. PMID 29052630. AlphaGo Lee... 12 convolutional layers Format:Closed access
  241. ^ Retele neuronale recurente , plase Hopfield :
  242. ^ Hyötyniemi, Heikki (). „Turing machines are recurrent neural networks”. Proceedings of STeP '96/Publications of the Finnish Artificial Intelligence Society: 13–24. 
  243. ^ PJ Werbos. Generalizarea backpropagation-ului cu aplicarea pe un model recurent de piață a gazelor " Neural Networks 1, 1988.
  244. ^ AJ Robinson și F. Fallside. Rețeaua de propagare a erorilor dinamice cauzate de utilitate. Raport Tehnic CUED / F-INFENG / TR.1, Departamentul de Inginerie al Universității din Cambridge, 1987.
  245. ^ RJ Williams și D. Zipser. Gradienți bazate pe algoritmi de învățare pentru rețele recurente și complexitatea lor computațională. În propagarea înapoi: teorie, arhitecturi și aplicații. Hillsdale, NJ: Erlbaum, 1994.
  246. ^ Sepp Hochreiter (1991), Untersuchungen zu dynamischen neuronalen Netzen Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol., Diploma thesis. Institut f. Informatik, Technische Univ. Munich. Advisor: J. Schmidhuber.
  247. ^ Schmidhuber, J. (). „Learning complex, extended sequences using the principle of history compression”. Neural Computation. 4 (2): 234–242. doi:10.1162/neco.1992.4.2.234. 
  248. ^ Hochreiter, Sepp ; și Schmidhuber, Jürgen ; Memorie pe termen scurt pe termen scurt , computament neuronal, 9 (8): 1735-1780, 1997
  249. ^ Alex Graves, Santiago Fernandez, Faustino Gomez și Jürgen Schmidhuber (2006). Clasificarea temporală a conectivității: Etichetarea datelor de secvență nesegmentate cu plase neuronale recurente. Proceedings of ICML'06, pp. 369-376.
  250. ^ Hannun. „Deep Speech: Scaling up end-to-end speech recognition”. arXiv:1412.5567Accesibil gratuit. 
  251. ^ Hasim Sak și Andrew Senior și Francoise Beaufays (2014). Arhitecturi neuronale recurente de memorie pe termen scurt pentru memorie acustică la scară largă. Proceedings of Interspeech 2014.
  252. ^ Li. „Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition”. arXiv:1410.4281Accesibil gratuit. 
  253. ^ Haşim Sak, Andrew Senior, Kanishka Rao, Françoise Beaufays and Johan Schalkwyk (September 2015): Google voice search: faster and more accurate. Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol.
  254. ^ Sutskever. „Sequence to Sequence Learning with Neural Networks”. arXiv:1409.3215Accesibil gratuit. 
  255. ^ Jozefowicz. „Exploring the Limits of Language Modeling”. arXiv:1602.02410Accesibil gratuit. 
  256. ^ Gillick. „Multilingual Language Processing From Bytes”. arXiv:1512.00103Accesibil gratuit. 
  257. ^ Vinyals. „Show and Tell: A Neural Image Caption Generator”. arXiv:1411.4555Accesibil gratuit. 
  258. ^ Brynjolfsson, Erik; Mitchell, Tom (). „What can machine learning do? Workforce implications”. Science (în engleză). pp. 1530–1534. Bibcode:2017Sci...358.1530B. doi:10.1126/science.aap8062. Accesat în . 
  259. ^ Sample, Ian (). 'It's able to create knowledge itself': Google unveils AI that learns on its own”. the Guardian (în engleză). Accesat în . 
  260. ^ „The AI revolution in science”. Science | AAAS (în engleză). . Accesat în . 
  261. ^ „Will your job still exist in 10 years when the robots arrive?”. South China Morning Post (în engleză). . Accesat în . 
  262. ^ Borowiec, Tracey Lien, Steven (). „AlphaGo beats human Go champ in milestone for artificial intelligence”. latimes.com. Accesat în . 
  263. ^ Brown, Noam; Sandholm, Tuomas (). „Superhuman AI for heads-up no-limit poker: Libratus beats top professionals”. Science (în engleză). pp. 418–424. doi:10.1126/science.aao1733. Accesat în . 
  264. ^ Ontanon, Santiago; Synnaeve, Gabriel; Uriarte, Alberto; Richoux, Florian; Churchill, David; Preuss, Mike (decembrie 2013). „A Survey of Real-Time Strategy Game AI Research and Competition in StarCraft”. IEEE Transactions on Computational Intelligence and AI in Games. 5 (4): 293–311. doi:10.1109/TCIAIG.2013.2286295. 
  265. ^ „Facebook Quietly Enters StarCraft War for AI Bots, and Loses”. WIRED. . Accesat în . 
  266. ^ „ILSVRC2017”. image-net.org (în engleză). Accesat în . 
  267. ^ Schoenick, Carissa; Clark, Peter; Tafjord, Oyvind; Turney, Peter; Etzioni, Oren (). „Moving beyond the Turing Test with the Allen AI Science Challenge”. Communications of the ACM. 60 (9): 60–64. doi:10.1145/3122814. 
  268. ^ O'Brien & Marakas 2011.
  269. ^ Definiții matematice ale inteligenței:
  270. ^ Hernández-Orallo, José; Dowe, David L.; Hernández-Lloreda, M.Victoria (martie 2014). „Universal psychometrics: Measuring cognitive abilities in the machine kingdom”. Cognitive Systems Research. 27: 50–74. doi:10.1016/j.cogsys.2013.06.001. 
  271. ^ a b Russell & Norvig 2009, p. 1.
  272. ^ CNN 2006.
  273. ^ Utilizarea AI pentru a anticipa întârzierile de zbor , Ishti.org.
  274. ^ N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (). „Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective”. PeerJ Computer Science. 2: e93. doi:10.7717/peerj-cs.93. 
  275. ^ „The Economist Explains: Why firms are piling into artificial intelligence”. The Economist. . Arhivat din original la . Accesat în . 
  276. ^ Lohr, Steve (). „The Promise of Artificial Intelligence Unfolds in Small Steps”. The New York Times. Arhivat din original la . Accesat în . 
  277. ^ Wakefield, Jane (). „Social media 'outstrips TV' as news source for young people”. BBC News. Arhivat din original la . 
  278. ^ Smith, Mark (). „So you think you chose to read this article?”. BBC News. Arhivat din original la . 
  279. ^ „10 Promising AI Applications in Health Care”. Harvard Business Review. . Accesat în . 
  280. ^ Dina Bass (). „Microsoft Develops AI to Help Cancer Doctors Find the Right Treatments”. Bloomberg. Arhivat din original la . 
  281. ^ Gallagher, James (). „Artificial intelligence 'as good as cancer doctors'. BBC News (în engleză). Arhivat din original la . Accesat în . 
  282. ^ Citare goală (ajutor) 
  283. ^ Kermany, D; Goldbaum, M; Zhang, Kang. „Identifying Medical Diagnoses and Treatable Diseases by Image-Based Deep Learning” (PDF). www.cell.com. Accesat în . 
  284. ^ Senthilingam, Meera (). „Are Autonomous Robots Your next Surgeons?”. CNN. Cable News Network. Arhivat din original la . Accesat în . 
  285. ^ Markoff, John (). „On 'Jeopardy!' Watson Win Is All but Trivial”. The New York Times. Arhivat din original la . 
  286. ^ Ng, Alfred (). „IBM's Watson gives proper diagnosis after doctors were stumped”. NY Daily News (în engleză). Arhivat din original la . 
  287. ^ "33 Corporații care lucrează pe autovehicule autonome". Statistici CB. Np, 11 august 2016. 12 noiembrie 2016.
  288. ^ West, Darrell M. "Mergând înainte: autovehicule cu autovehicule în China, Europa, Japonia, Coreea și Statele Unite". Centrul de Inovare în Tehnologie de la Brookings. Np, septembrie 2016. 12 noiembrie 2016.
  289. ^ Burgess, Matt (). „The UK is about to Start Testing Self-Driving Truck Platoons”. Wired UK. Arhivat din original la . Accesat în . 
  290. ^ Davies, Alex (). „World's First Self-Driving Semi-Truck Hits the Road”. WIRED. Arhivat din original la . Accesat în . 
  291. ^ McFarland, Matt. "Descoperirea inteligenței artificiale a Google poate avea un impact imens asupra autovehiculelor și mult mai mult". Washington Post, 25 februarie 2015. Chioșc Infotrac. 24 octombrie 2016
  292. ^ "Programarea siguranței în autoturisme". Fundația Națională de Științe. Np, 2 februarie 2015. 24 octombrie 2016.
  293. ^ ArXiv, ET (26 octombrie 2015). De ce autovehiculele cu autovehicule trebuie programate să ucidă. Adus 17 noiembrie 2017, de la https://www.technologyreview.com/s/542626/why-self-driving-cars-must-be-programmed-to-kill/
  294. ^ O'Neill, Eleanor (). „Accounting, automation and AI”. www.icas.com (în English). Arhivat din original la . Accesat în . 
  295. ^ Robots Beat Humans in Trading Battle. Eroare în formatul webarchive: Verificați valoarea pentru |url=. Gol. BBC.com (8 August 2001)
  296. ^ „CTO Corner: Artificial Intelligence Use in Financial Services – Financial Services Roundtable”. Financial Services Roundtable (în engleză). . Arhivat din original la . Accesat în . 
  297. ^ Marwala, Tshilidzi; Hurwitz, Evan (). Artificial Intelligence and Economic Theory: Skynet in the Market. London: Springer. ISBN 978-3-319-66104-9. 
  298. ^ „Why AI researchers like video games”. Arhivat din original la . 
  299. ^ Yannakakis, GN (2012, mai). Jocul AI revizuit. În Proceedings of the 9th Conference on Computing Frontiers (pp. 285-292). ACM.
  300. ^ „Getting to grips with military robotics”. The Economist (în engleză). . Accesat în . 
  301. ^ „Autonomous Systems: Infographic”. www.siemens.com (în engleză). Accesat în . 
  302. ^ Metz, Cade (). „Pentagon Wants Silicon Valley's Help on A.I”. The New York Times. Accesat în . 
  303. ^ Chang, Hsihui; Kao, Yi-Ching; Mashruwala, Raj; Sorensen, Susan M. (). „Technical Inefficiency, Allocative Inefficiency, and Audit Pricing”. Journal of Accounting, Auditing & Finance. 33 (4): 580–600. doi:10.1177/0148558X17696760. 
  304. ^ Matz, SC și colab. "Direcționarea psihologică ca o abordare eficientă a persuasiunii digitale în masă". Lucrări ale Academiei Naționale de Științe (2017): 201710966.
  305. ^ Busby, Mattha (). „Revealed: how bookies use AI to keep gamblers hooked”. the Guardian (în engleză). 
  306. ^ Celli, Fabio, Pietro Zani Massani și Bruno Lepri. Profilio: Profilul psihometric pentru a stimula publicitatea în mass-media socială. " Procesele din 2017 ACM pe Conferința Multimedia. ACM, 2017 [1]
  307. ^ https://www.moma.org/calendar/exhibitions/3863 Adus la 29 iulie 2018
  308. ^ https://www.washingtonpost.com/news/innovations/wp/2016/03/10/googles-psychedelic-paint-brush-raises-the-oldest-question-in-art/ Recuperat 29 iulie
  309. ^ „Unhuman: Art in the Age of AI – State Festival”. Statefestival.org. Accesat în . 
  310. ^ https://www.artsy.net/article/artsy-editorial-hard-painting-made-computer-human . Adus pe 29 iulie
  311. ^ https://dl.acm.org/citation.cfm?id=3204480.3186697 Adus la 29 iulie
  312. ^ Testul Turing :

    Publicația inițială a lui Turing:
  313. ^ Propunerea de la Dartmouth:
  314. ^ Ipoteza sistemelor simbolice fizice :
  315. ^ Dreyfus criticized the necessary condition of the physical symbol system hypothesis, which he called the "psychological assumption": "The mind can be viewed as a device operating on bits of information according to formal rules." (Dreyfus 1992, p. 156)
  316. ^ Dreptul lui Dreyfus asupra inteligenței artificiale :
  317. ^ Gödel 1951 : în această prelegere, Kurt Gödel folosește teorema incompletenței pentru a ajunge la următoarea disjuncție: (a) mintea umană nu este o mașină finită consistentă, sau (b) există ecuații Diophantine pentru care nu poate decide dacă există soluții. Gödel găsește (b) implauzibil și, astfel, pare să fi crezut că mintea umană nu este echivalentă cu o mașină finită, adică puterea sa depășește puterea oricărei mașini finite. El a recunoscut că aceasta a fost doar o presupunere, deoarece nu s-ar putea denunța niciodată (b). Cu toate acestea, el a considerat concluzia disjunctivă ca fiind un "fapt sigur".
  318. ^ Obiecția matematică:
  319. ^ Graham Oppy (). „Gödel's Incompleteness Theorems”. Stanford Encyclopedia of Philosophy. Accesat în . These Gödelian anti-mechanist arguments are, however, problematic, and there is wide consensus that they fail. 
  320. ^ Stuart J. Russell; Peter Norvig (). „26.1.2: Philosophical Foundations/Weak AI: Can Machines Act Intelligently?/The mathematical objection”. Artificial Intelligence: A Modern Approach (ed. 3rd). Upper Saddle River, NJ: Prentice Hall. ISBN 978-0-13-604259-4. even if we grant that computers have limitations on what they can prove, there is no evidence that humans are immune from those limitations. 
  321. ^ Mark Colyvan. O introducere în filosofia matematicii. Cambridge University Press , 2012. Din 2.2.2, "semnificația filosofică a rezultatelor incompletenței lui Gödel": "Înțelepciunea acceptată (cu care concur) este că argumentele Lucas-Penrose nu reușesc".
  322. ^ Russel, Stuart, Daniel Dewey și Max Tegmark. Priorități de cercetare pentru o inteligență artificială robustă și benefică. AI Magazine 36: 4 (2015). 8 decembrie 2016.
  323. ^ Rawlinson, Kevin (). „Microsoft's Bill Gates insists AI is a threat”. BBC News. Arhivat din original la . Accesat în . 
  324. ^ Holley, Peter (). „Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'. The Washington Post. ISSN 0190-8286. Arhivat din original la . Accesat în . 
  325. ^ Gibbs, Samuel (). „Elon Musk: artificial intelligence is our biggest existential threat”. The Guardian. Arhivat din original la . Accesat în . 
  326. ^ Post, Washington. „Tech titans like Elon Musk are spending $1 billion to save you from terminators”. Arhivat din original la . 
  327. ^ Müller, Vincent C.; Bostrom, Nick (). „Future Progress in Artificial Intelligence: A Poll Among Experts” (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. Arhivat din original (PDF) la . 
  328. ^ „The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers”. Tech Insider. Arhivat din original la . Accesat în . 
  329. ^ Clark, Jack. „Musk-Backed Group Probes Risks Behind Artificial Intelligence”. Bloomberg.com. Arhivat din original la . Accesat în . 
  330. ^ „Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research”. Fast Company. . Arhivat din original la . Accesat în . 
  331. ^ „Is artificial intelligence really an existential threat to humanity?”. Bulletin of the Atomic Scientists. . Arhivat din original la . Accesat în . 
  332. ^ „The case against killer robots, from a guy actually working on artificial intelligence”. Fusion.net. Arhivat din original la . Accesat în . 
  333. ^ „Will artificial intelligence destroy humanity? Here are 5 reasons not to worry”. Vox. . Arhivat din original la . Accesat în . 
  334. ^ In the early 1970s, Kenneth Colby presented a version of Weizenbaum's ELIZA known as DOCTOR which he promoted as a serious therapeutic tool. (Crevier 1993, pp. 132–144)
  335. ^ Joseph Weizenbaum critică AI:
  336. ^ https://www.channelnewsasia.com/news/commentary/artificial-intelligence-big-data-bias-hiring-loans-key-challenge-11097374
  337. ^ E McGaughey, "Robotii vă vor automatiza locul de muncă? Ocuparea integrală, venitul de bază și democrația economică "(2018) SSRN, partea 2 (3)
  338. ^ „Automation and anxiety”. The Economist. . Accesat în . 
  339. ^ Lohr, Steve (). „Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says”. The New York Times. Accesat în . 
  340. ^ Frey, Carl Benedikt; Osborne, Michael A (). „The future of employment: How susceptible are jobs to computerisation?”. Technological Forecasting and Social Change. 114: 254–280. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625. 
  341. ^ Arntz, Melanie, Terry Gregory și Ulrich Zierahn. "Riscul de automatizare a locurilor de muncă în țările OCDE: o analiză comparativă". Documentele de lucru socială, ocuparea forței de muncă și migrația din OCDE 189 (2016). p. 33.
  342. ^ Mahdawi, Arwa (). „What jobs will still be around in 20 years? Read this to prepare your future”. The Guardian. Accesat în . 
  343. ^ „Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence”. Observer. . Arhivat din original la . Accesat în . 
  344. ^ Wendell Wallach (2010). Moral Machines , Oxford University Press.
  345. ^ Wallach, pp. 37-54.
  346. ^ Wallach, pp. 55-73.
  347. ^ Wallach, Introducere capitol.
  348. ^ a b Michael Anderson și Susan Leigh Anderson (2011), Etica mașinilor, Cambridge University Press.
  349. ^ a b „Machine Ethics”. aaai.org. Arhivat din original la . 
  350. ^ Rubin, Charles (). „Artificial Intelligence and Human Nature |'The New Atlantis”. 1: 88–100. Arhivat din original la . 
  351. ^ Brooks, Rodney (). „artificial intelligence is a tool, not a threat”. Arhivat din original la . 
  352. ^ Chalmers, David (). „Facing up to the problem of consciousness”. Journal of Consciousness Studies. 2 (3): 200–219.  See also this link
  353. ^ Horst, Steven , (2005) "Teoria computațională a minții" în Enciclopedia de filosofie Stanford
  354. ^ Această versiune este de la Searle (1999) și este citată și în Dennett 1991 , p.   435. Formula originală a lui Searle a fost: "Calculatorul programat în mod adecvat este cu adevărat o minte, în sensul că calculatoarele care au dat programele potrivite pot fi literalmente spuse că înțeleg și au alte stări cognitive". ( Searle 1980 , p.   1). AI puternică este definită în mod similar de Russell & Norvig (2003 , p.   947): "Afirmația că mașinile ar putea să acționeze inteligent (sau, poate, mai bine, ar acționa ca și cum ar fi inteligente) se numește ipoteza" slaba AI "a filozofilor și afirmația că mașinile care o fac așa gândesc (spre deosebire de pentru a simula gândirea) se numește ipoteza "puternică AI". "
  355. ^ Argumentul camerei chineze a lui Searle:
  356. ^ Drepturile robotului :
  357. ^ Evans, Woody (). „Posthuman Rights: Dimensions of Transhuman Worlds”. Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072. 
  358. ^ maschafilm. „Content: Plug & Pray Film – Artificial Intelligence – Robots -”. plugandpray-film.de. Arhivat din original la . 
  359. ^ Omohundro, Steve (2008). Natura auto-imbunatatirii inteligentei artificiale . prezentat și distribuit la summitul Singularity din 2007, San Francisco, CA.
  360. ^ a b c Singularitatea tehnologică :
  361. ^ Transhumanismul :
  362. ^ AI ca evoluție:
  363. ^ Buttazzo, G. (iulie 2001). „Artificial consciousness: Utopia or real possibility?”. Computer (IEEE). 34 (7): 24–30. doi:10.1109/2.933500. 
  364. ^ Anderson, Susan Leigh. "Cele trei legi ale lui Asimov despre robotică" și metaetica mașinilor. " AI și societatea 22.4 (2008): 477-493.
  365. ^ McCauley, Lee (). „AI armageddon and the three laws of robotics”. Ethics and Information Technology. 9 (2): 153–164. doi:10.1007/s10676-007-9138-2. 
  366. ^ Galvan, Jill (). „Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"”. Science Fiction Studies. 24 (3): 413–429. JSTOR 4240644. 

Manuale de IA

Istoria IA

Alte surse

 

Lectură suplimentară