Eliezer Yudkowsky
Eliezer Shlomo Yudkowsky (* 11. September 1979) ist ein US-amerikanischer Forscher und Autor. Er beschäftigt sich mit Entscheidungstheorie und den langfristigen sozialen und philosophischen Folgen der Entwicklung von Künstlicher Intelligenz.[1] Er lebt in Redwood City, Kalifornien.[2]
Leben
Yudkowsky beendete seine Schulausbildung, als er 12 Jahre alt war. Er ist seither Autodidakt und hat keine formale Ausbildung im Bereich der Künstlichen Intelligenz.[3] Er gründete im Jahr 2000 zusammen mit Brian und Sabine Atkins die Non-Profit-Organisation Singularity Institute for Artificial Intelligence (SIAI), welche seit Ende Januar 2013 Machine Intelligence Research Institute (MIRI) heißt.[4] Er ist dort weiterhin als Forscher angestellt.[5] Er hat 2013 Brienne Yudkowsky geheiratet und lebt mit ihr in einer offenen Ehe.[6]
Werk
Yudkowsky versucht in seiner Forschung eine Theorie zu entwickeln, die es ermöglicht, eine Künstliche Intelligenz mit reflexivem Selbstverständnis zu erschaffen, welche zudem in der Lage ist, sich selbst zu modifizieren und rekursiv zu verbessern, ohne dabei ihre ursprüngliche Präferenzen, insbesondere Moral und Ethik, zu verändern (siehe Seed AI, Friendly AI, und insbesondere Coherent Extrapolated Volition).[7] Der von ihm verwendete Begriff „Friendly AI“ beschreibt eine künstliche Intelligenz, die menschliche Werte vertritt und keine negativen Auswirkungen oder gar eine Vernichtung der Menschheit mit sich zieht. Neben seiner theoretischen Forschung hat Yudkowsky außerdem einige Einführungen in philosophische Themen geschrieben, wie zum Beispiel den Text „An Intuitive Explanation of Bayes' Theorem“ (deutsch „Eine intuitive Erklärung des Satz von Bayes“).
OvercomingBias und LessWrong
Yudkowsky war neben Robin Hanson einer der wichtigsten Mitwirkenden beim Blog OvercomingBias, welcher vom Future of Humanity Institute der Universität Oxford gesponsert wurde. Im Frühjahr 2009 half er bei der Gründung des Community-Blogs LessWrong, welcher sich zum Ziel setzt, die menschliche Rationalität zu erhöhen.[8] Yudkowsky schrieb auch die sogenannten „Sequences“ auf „LessWrong“, welche aus mehr als 600 Blog-Posts bestehen und Themen wie Erkenntnistheorie, Künstliche Intelligenz, Fehler der menschlichen Rationalität und Metaethik behandeln.
Weitere Publikationen
Er trug zwei Kapitel zu dem von Nick Bostrom und Milan Cirkovic herausgegebenen Sammelband „Global Catastrophic Risk“ bei.[9]
Yudkowsky ist zudem der Autor folgender Publikationen: „Creating Friendly AI“ (2001),[10] „Levels of Organization in General Intelligence“ (2002), „Coherent Extrapolated Volition“ (2004) und „Timeless Decision Theory“ (2010).[11][12]
Yudkowsky hat auch einige belletristische Werke geschrieben. Seine Harry-Potter-Fan-Fiction „Harry Potter and the Methods of Rationality“ ist momentan die beliebteste Harry-Potter-Geschichte der Website fanfiction.net. Sie behandelt Themen der Kognitionswissenschaft, Rationalität und Philosophie im Allgemeinen und wurde unter anderem durch den Science-Fiction-Autor David Brin[13] und den Programmierer Eric S. Raymond positiv bewertet.[14]
Sein neuestes Buch, „Inadequate Equilibria: Where and How Civilizations Get Stuck“, hat Yudkowsky im Jahr 2017 veröffentlicht.[15] In dem Buch diskutiert er welche Umstände Gesellschaften dazu führen bessere oder schlechtere Entscheidungen zu treffen, um weithin anerkannte Ziele umzusetzen.
Literatur
- Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
- The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265–272, 289, 321, 324, 326, 337–339, 345, 353, 370.
- Inadequate Equilibria: Where and How Civilizations Get Stuck
Weblinks
Einzelnachweise
- Machine Intelligence Research Institute: Our Team. Abgerufen am 22. November 2015.
- Eliezer Yudkowsky: About
- „GDay World #238: Eliezer Yudkowsky“. The Podcast Network. Abgerufen am 26. Juli 2009 (Memento des Originals vom 28. April 2012 im Internet Archive) Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.
- „We are now the “Machine Intelligence Research Institute” (MIRI)“. Singularity Institute Blog. (Memento vom 6. Februar 2013 im Internet Archive)
- Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. p. 599
- Eliezer S. Yudkowsky. In: yudkowsky.net. Abgerufen am 10. Februar 2018.
- Coherent Extrapolated Volition, Mai 2004 (Memento des Originals vom 15. August 2010 im Internet Archive) Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.
- „Overcoming Bias: About“. Overcoming Bias. Abgerufen am 26. Juli 2009
- Nick Bostrom, Milan M. Ćirković (Hrsg.): Global Catastrophic Risks. Oxford University Press, Oxford (UK) 2008, S. 91–119, 308–345.
- Creating Friendly AI 1.0 (Memento vom 16. Juni 2012 im Internet Archive)
- Archivlink (Memento des Originals vom 25. Oktober 2011 im Internet Archive) Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.
- „Eliezer Yudkowsky Profile“. Accelerating Future (Memento des Originals vom 19. November 2011 im Internet Archive) Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.
- http://www.davidbrin.blogspot.com/2010/06/secret-of-college-life-plus.html
- http://esr.ibiblio.org/?p=2100
- Inadequate Equilibria by Eliezer Yudkowsky. Abgerufen am 20. Mai 2018 (amerikanisches Englisch).