Inteligență artificială slabă

De la Wikipedia, enciclopedia liberă

Inteligența artificială slabă[1] (sau IA slabă) este inteligența artificială care implementează o parte limitată a minții, sau ca IA restrânsă,[2][3][4][5] se concentrează pe o sarcină restrânsă. În termenii lui John Searle „ar fi utilă pentru testarea ipotezelor despre minți, dar nu ar fi de fapt minți”.[6] Contrastează cu IA puternică, care este definită ca o mașină cu capacitatea de a folosi inteligența în rezolvarea oricărei probleme, mai degrabă decât o singură problemă specifică, uneori considerată că necesită conștiință, simțire și minte.[7]

Terminologie[modificare | modificare sursă]

„IA slabă” este uneori numită „IA restrânsă”, dar aceasta din urmă este de obicei interpretată ca un sub-domeniu în cadrul celeilalte. Testarea ipotezei despre minți sau o parte a minților nu face de obicei parte din [cercetarea] IA restrânsă, ci mai degrabă implementarea unor caracteristici de aspect superficial. Multe sisteme existente în prezent care pretind că folosesc „inteligența artificială” funcționează probabil ca o IA restrânsă axată pe o problemă specifică și nu sunt IA slabe în sensul tradițional.

Siri, Cortana și Asistentul Google sunt toate exemple de IA îngustă, dar nu sunt exemple bune de IA slabă, deoarece funcționează într-o gamă limitată de funcții predefinite. Nu implementează părți ale minții, folosesc prelucrarea limbajului natural împreună cu reguli predefinite. În special, nu sunt exemple de IA puternică, deoarece nu există o inteligență autentică și nici conștiință de sine. Cercetătorul IA Ben Goertzel, pe blogul său în 2010 a declarat că Siri era „FOARTE îngustă și fragilă”, lucru dovedit de rezultatele enervante atunci când sunt puse întrebări în afara limitelor aplicației.[8]

Impact[modificare | modificare sursă]

Unii comentatori cred că IA slabă ar putea fi periculoasă din cauza acestei „fragilități” și eșuează în moduri imprevizibile. IA slabă ar putea provoca întreruperi în rețeaua electrică, ar putea deteriora centrale nucleare, ar putea provoca probleme economice globale și ar putea direcționa greșit vehicule autonome.[9]

Referințe[modificare | modificare sursă]

  1. ^ Petru Iluț, Ioan Biriș, Ioana Lucia Bordeianu. În căutare de principii. Epistemologie și metodologie socială aplicată. Editura Polirom, 2016. ISBN 9789734636846
  2. ^ Avizul Comitetului Economic și Social European privind „Inteligența artificială – Impactul inteligenței artificiale asupra pieței unice (digitale), a producției, a consumului, a ocupării forței de muncă și a societății” Art. 2.2; Jurnalul Oficial al Uniunii Europene, 31 august 2017
  3. ^ io9.com mentions narrow AI. Published 1 April 2013, retrieved 16 February 2014: http://io9.com/how-much-longer-before-our-first-ai-catastrophe-464043243
  4. ^ AI researcher Ben Goertzel explains why he became interested in AGI instead of narrow AI. Published 18 Oct 2013. Retrieved 16 February 2014. http://intelligence.org/2013/10/18/ben-goertzel/
  5. ^ TechCrunch discusses AI App building regarding Narrow AI. Published 16 Oct 2015, retrieved 17 Oct 2015. https://techcrunch.com/2015/10/15/machine-learning-its-the-hard-problems-that-are-valuable/
  6. ^ The Cambridge handbook of artificial intelligence. Frankish, Keith., Ramsey, William M., 1960-. Cambridge, UK. . p. 342. ISBN 978-0-521-87142-6. OCLC 865297798. 
  7. ^ Searle, John R. (septembrie 1980). „Minds, brains, and programs” (PDF). Behavioral and Brain Sciences. 3 (3): 417–424. doi:10.1017/s0140525x00005756. ISSN 0140-525X. 
  8. ^ Ben Goertzel blog-post retrieved 16 February 2014.
  9. ^ Retrieved 16 February 2014. http://io9.com/how-much-longer-before-our-first-ai-catastrophe-464043243