Eliezer Yudkowsky

De la Wikipedia, enciclopedia liberă
Sari la navigare Sari la căutare
Eliezer Yudkowsky
Eliezer Yudkowsky, Stanford 2006 (square crop).jpg
Date personale
Nume la naștereEliezer Shlomo Yudkowsky Modificați la Wikidata
Născut (42 de ani)[1] Modificați la Wikidata
Chicago, Illinois, SUA Modificați la Wikidata
CetățenieFlag of the United States.svg SUA Modificați la Wikidata
Religieateism[2] Modificați la Wikidata
Ocupațiecercetător al inteligenței artificiale[*]
blogger
scriitor
informatician Modificați la Wikidata
Activitate
Domeniuinteligență artificială
inteligență artificială prietenoasă[*]
teoria deciziei[*]
Transumanism  Modificați la Wikidata
Instituție Machine Intelligence Research Institute[*][[Machine Intelligence Research Institute (American non-profit organization)|​]]  Modificați la Wikidata
Prezență online

Eliezer Shlomo Yudkowsky (n. ,[1] Chicago, Illinois, SUA) este un cercetător și scriitor american în domeniul inteligenței artificiale (IA) cunoscut mai ales pentru popularizarea ideii de inteligență artificială prietenoasă.[3][4] Este cofondator[5] și cercetător al Machine Intelligence Research Institute (MIRI), un organism de cercetare privat nonprofit cu sediul în Berkeley, California.[6] Munca sa asupra perspectivei unei explozii de inteligență a fost o influență de cartea lui Nick Bostrom, Superinteligența. Căi, pericole, strategii.[7] Un autodidact,[8] Yudkowsky nu a studiat la liceu sau facultate.[9]

Inteligență artificială[modificare | modificare sursă]

În scenariul exploziei de inteligență propus de I. J. Good, sistemele de inteligență artificială auto-îmbunătățite recursiv trec rapid de la inteligența generală subumană la superinteligentă. Cartea lui Nick Bostrom din 2014 Superinteligența. Căi, pericole, strategii prezintă argumentul lui Good în detaliu, citând în același timp scrierile lui Yudkowsky cu privire la riscul ca antropomorfizarea sistemelor avansate de IA să determine oamenii să înțeleagă greșit natura unei explozii de informații. „IA ar putea face un salt aparent puternic în inteligență doar ca rezultat al antropomorfismului, al tendinței umane de a gândi în termeni ca „idiotul satului” și „Einstein” la capetele extreme ale scalei inteligenței, în loc de puncte aproape imperceptibile pe scara minților -în general." [3][5][10]

Scrieri[modificare | modificare sursă]

Între 2006 și 2009, Yudkowsky și Robin Hanson au fost principalii contribuabili ai Overcoming Bias, un blog de științe cognitive și sociale sponsorizat de Institutul Future of Humanity al Universității Oxford. În februarie 2009, Yudkowsky a fondat LessWrong, un „blog dedicat rafinării artei raționalității umane”.[11] [12] Overcoming Bias a rămas de atunci blogul personal al lui Hanson.

Peste 300 de postări pe blog ale lui Yudkowsky despre filozofie și știință (scrise inițial pe LessWrong și Overcoming Bias) au fost lansate ca o carte electronică intitulată Rationality: From AI to Zombies de către Machine Intelligence Research Institute (MIRI) în 2015.[13] MIRI a publicat, de asemenea, Inadequate Equilibria, cartea electronică a lui Yudkowsky din 2017 despre subiectul ineficiențelor societale. [14]

Yudkowsky a scris, de asemenea, mai multe opere de ficțiune. Romanul său de fan fiction, Harry Potter and the Methods of Rationality (Harry Potter și metodele raționalității), folosește elemente ale intrigii din seria Harry Potter a lui J. K. Rowling pentru a ilustra subiecte din știință.[11][15] The New Yorker a descris Harry Potter și metodele raționalității ca pe o reluare a originalului lui Rowling „în încercarea de a explica vrăjitoria lui Harry prin metoda științifică”.[16]

Publicații academice[modificare | modificare sursă]

  • Yudkowsky, Eliezer (). „Levels of Organization in General Intelligence” (PDF). Artificial General Intelligence. Berlin: Springer. 
  • Yudkowsky, Eliezer (). „Cognitive Biases Potentially Affecting Judgement of Global Risks” (PDF). În Bostrom, Nick; Ćirković, Milan. Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504. 
  • Yudkowsky, Eliezer (). „Artificial Intelligence as a Positive and Negative Factor in Global Risk” (PDF). În Bostrom, Nick; Ćirković, Milan. Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504. 
  • Yudkowsky, Eliezer (). „Complex Value Systems in Friendly AI” (PDF). Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer. 
  • Yudkowsky, Eliezer (). „Friendly Artificial Intelligence”. În Eden, Ammon; Moor, James; Søraker, John; Steinhart, Eric. Singularity Hypotheses: A Scientific and Philosophical Assessment. The Frontiers Collection. Berlin: Springer. pp. 181–195. doi:10.1007/978-3-642-32560-1_10. ISBN 978-3-642-32559-5. 
  • Bostrom, Nick; Yudkowsky, Eliezer (). „The Ethics of Artificial Intelligence” (PDF). În Frankish, Keith; Ramsey, William. The Cambridge Handbook of Artificial Intelligence. New York: Cambridge University Press. ISBN 978-0-521-87142-6. 
  • LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (). „Program Equilibrium in the Prisoner's Dilemma via Löb's Theorem”. Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop. AAAI Publications. 
  • Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (). „Corrigibility” (PDF). AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications. 

Referințe[modificare | modificare sursă]

  1. ^ a b http://www.nndb.com/lists/517/000063328/  Lipsește sau este vid: |title= (ajutor)
  2. ^ http://lesswrong.com/lw/uk/beyond_the_reach_of_god/  Lipsește sau este vid: |title= (ajutor)
  3. ^ a b Russell, Stuart; Norvig, Peter (). Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  4. ^ Leighton, Jonathan (). The Battle for Compassion: Ethics in an Apathetic Universe. Algora. ISBN 978-0-87586-870-7. 
  5. ^ a b Dowd, Maureen. „Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse”. Vanity Fair (în engleză). Accesat în . 
  6. ^ Kurzweil, Ray (). The Singularity Is Near. New York City: Viking Penguin. ISBN 978-0-670-03384-3. 
  7. ^ Ford, Paul (). „Our Fear of Artificial Intelligence”. MIT Technology Review (în engleză). Accesat în . 
  8. ^ Matthews, Dylan; Pinkerton, Byrd (). „He co-founded Skype. Now he's spending his fortune on stopping dangerous AI”. Vox. 
  9. ^ Saperstein, Gregory (). „5 Minutes With a Visionary: Eliezer Yudkowsky”. 
  10. ^ Bostrom, Nick (). Superintelligence: Paths, Dangers, Strategies. ISBN 978-0199678112. 
  11. ^ a b Miller, James (). Singularity Rising. BenBella Books, Inc. ISBN 978-1936661657. 
  12. ^ Miller, James (). „You Can Learn How To Become More Rational”. Business Insider. Accesat în . 
  13. ^ Miller, James D. „Rifts in Rationality - New Rambler Review”. newramblerreview.com (în engleză). Accesat în . 
  14. ^ Machine Intelligence Research Institute. „Inadequate Equilibria: Where and How Civilizations Get Stuck”. 
  15. ^ "'Harry Potter' and the Key to Immortality", Daniel Snyder, The Atlantic
  16. ^ Packer, George (). „No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire”. The New Yorker: 54. Accesat în . 

Vezi și[modificare | modificare sursă]

Legături externe[modificare | modificare sursă]