Eliezer Yudkowsky

Eliezer Shlomo Yudkowsky (* 11. September 1979) ist ein US-amerikanischer KI-Forscher[1] und Autor. Er beschäftigt sich mit Entscheidungstheorie und den Folgen der Entwicklung von Künstlicher Intelligenz.[2] Er lebt in Redwood City, Kalifornien.[3]

Eliezer Yudkowsky (2006)

Leben

Yudkowsky beendete seine Schulausbildung, als er 12 Jahre alt war. Er ist seither Autodidakt und hat keine formale Ausbildung im Bereich der Künstlichen Intelligenz.[4] Er gründete im Jahr 2000 zusammen mit Brian und Sabine Atkins die Non-Profit-Organisation Singularity Institute for Artificial Intelligence (SIAI), welche seit Ende Januar 2013 Machine Intelligence Research Institute (MIRI) heißt.[5] Er ist dort weiterhin als Forscher angestellt.[6]

2023 wurde er vom Time magazine zu den 100 einflussreichsten Persönlichkeiten im Bereich der KI gezählt.[7]

Werk

Yudkowsky versucht nach eigenen Angaben eine Theorie zu entwickeln, die es ermöglicht, eine Künstliche Intelligenz mit reflexivem Selbstverständnis zu erschaffen, welche zudem in der Lage ist, sich selbst zu modifizieren und rekursiv zu verbessern, ohne dabei ihre ursprüngliche Präferenzen, insbesondere Moral und Ethik, zu verändern.[8] Der von ihm verwendete Begriff „Friendly AI“ beschreibt eine künstliche Intelligenz, die menschliche Werte vertritt und keine negativen Auswirkungen oder gar eine Vernichtung der Menschheit mit sich zieht. Mittlerweile vertritt er jedoch die Ansicht, dass künstliche Intelligenz die Menschheit vernichten wird und der einzige Weg dies zu stoppen eine große internationale Zusammenarbeit wäre, die alles Menschenmögliche unternehmen müsste, um den Betrieb und die Weiterentwicklung künstlicher Intelligenz zu stoppen.[9][10][11] Neben seiner Theorie hat Yudkowsky außerdem einige Einführungen in philosophische Themen geschrieben, wie zum Beispiel den Text „An Intuitive Explanation of Bayes' Theorem“ (deutsch „Eine intuitive Erklärung des Satz von Bayes“).

OvercomingBias und LessWrong

Yudkowsky schrieb beim Blog OvercomingBias[12] und im Frühjahr 2009 mitbegründete er den Blog LessWrong. Dort schrieb er Beiträge zu Themen wie Erkenntnistheorie, Künstliche Intelligenz, Fehler der menschlichen Rationalität und Metaethik.

Weitere Publikationen

Er trug zwei Kapitel zu dem von Nick Bostrom und Milan Cirkovic herausgegebenen Sammelband „Global Catastrophic Risk“ bei.[13]

Yudkowsky ist zudem der Autor folgender Publikationen: „Creating Friendly AI“ (2001),[14] „Levels of Organization in General Intelligence“ (2002), „Coherent Extrapolated Volition“ (2004) und „Timeless Decision Theory“ (2010).[15][16]

Yudkowsky hat auch einige belletristische Werke geschrieben. Seine Harry-Potter-Fan-FictionHarry Potter and the Methods of Rationality“ ist momentan die beliebteste Harry-Potter-Geschichte der Website fanfiction.net. Sie behandelt Themen der Kognitionswissenschaft, Rationalität und Philosophie im Allgemeinen und wurde unter anderem durch den Science-Fiction-Autor David Brin[17] und den Programmierer Eric S. Raymond positiv bewertet.[18]

Sein neuestes Buch, „Inadequate Equilibria: Where and How Civilizations Get Stuck“, hat Yudkowsky im Jahr 2017 veröffentlicht.[19] In dem Buch diskutiert er, welche Umstände Gesellschaften dazu führen, bessere oder schlechtere Entscheidungen zu treffen, um weithin anerkannte Ziele umzusetzen.

Literatur

  • Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
  • The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265–272, 289, 321, 324, 326, 337–339, 345, 353, 370.
  • Inadequate Equilibria: Where and How Civilizations Get Stuck

Einzelnachweise

  1. Will Henshal: Eliezer Yudkowsky. In: time.com. 7. September 2023, abgerufen am 14. Januar 2024 (englisch).
  2. Machine Intelligence Research Institute: Our Team. Abgerufen am 22. November 2015.
  3. Eliezer Yudkowsky: About
  4. „GDay World #238: Eliezer Yudkowsky“. The Podcast Network. Abgerufen am 26. Juli 2009 (Memento vom 28. April 2012 im Internet Archive)
  5. „We are now the “Machine Intelligence Research Institute” (MIRI)“. Singularity Institute Blog. (Memento vom 6. Februar 2013 im Internet Archive)
  6. Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. p. 599
  7. TIME 100 AI. In: time.com. 2023, abgerufen am 15. Januar 2024 (englisch).
  8. Coherent Extrapolated Volition, Mai 2004 (Memento vom 15. August 2010 im Internet Archive)
  9. E. Yudkowsky: Pausing AI Developments Isn’t Enough. We Need to Shut it All Down. In: time.com. 29. März 2023, abgerufen am 15. Januar 2024 (englisch).
  10. Eliezer Yudkowsky – Will Superintelligent AI End the World?TED Talk mit Eliezer Yudkowsky zum Thema Risiken künstlicher Intelligenz. Abgerufen am 26. Juli 2023.
  11. Dana Neumannn: „Geringe Chance, dass die Menschheit überlebt“: Forscher warnt vor Weltuntergang in wenigen Jahren. In: Futurezone / msn. 19. Februar 2024, abgerufen am 20. Februar 2024 (Der Artikel verlinkt auch auf einen Guardian-Artikel).
  12. Robin Hanson: About - Overcoming Bias. Abgerufen am 30. August 2023 (englisch).
  13. Nick Bostrom, Milan M. Ćirković (Hrsg.): Global Catastrophic Risks. Oxford University Press, Oxford (UK) 2008, S. 91–119, 308–345.
  14. Creating Friendly AI 1.0 (Memento vom 16. Juni 2012 im Internet Archive)
  15. Timeless Decision Theory (Memento vom 25. Oktober 2011 im Internet Archive)
  16. „Eliezer Yudkowsky Profile“. Accelerating Future (Memento vom 19. November 2011 im Internet Archive)
  17. David Brin: A secret of college life... plus controversies and science! 21. Juni 2010, abgerufen am 25. Januar 2023 (englisch).
  18. Eric S. Raymond: Harry Potter and the Methods of Rationality. 6. Juli 2010, abgerufen am 25. Januar 2023 (englisch).
  19. Inadequate Equilibria by Eliezer Yudkowsky. Abgerufen am 20. Mai 2018 (amerikanisches Englisch).
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.