Nick Bostrom: "Superintelligence - Paths, Dangers, Strategies"

Nick Bostrom: „Superintelligence - Paths, Dangers, Strategies“ ist eine sehr komplexe und umfassende Abhandlung über die theoretische Ansätze, eine Superintellegenz irgendwie zu zügeln (Superintelligenz ist hier definiert als ein „Ding“, das vieltausendmal cleverer/intelligenter ist als alle Menschen). D.h. es geht irgendwie um eine Neufassung der Robotergesetze von Asimov.

Kurze Zusammenfassung: es ist sehr schwer und fraglich ob der Menscheit das wirklich gelingen kann. Bostrom hat aber (zusamen mit Eliezer S. Yudkowsky) zumindestens einige Ideen. Kernpunkt ist, dass die Entwickler letztendlich nur Vorgaben machen können und dass die eigentliche Entwicklung dieser Regeln für Roboterethik von der Superintelligenz selbst entwickelt werden müssen. Dafür müssen die Entwickler geeignete Rahmen vorgeben. Die Ansätze dazu werden unter den Schlagworten „Coherent Extrapolated Volition“, „Moral Rightness“ und „Moral Permissibility Model“ zusammengefasst.

(Warnung: das Buch ist nicht einfach zu lesen, der Autor ist Physiker und Philosoph mit mathematischer Ausbildung - einen Vorgeschmack gibt der Text zu ethischen Fragen rund um Super-Intelligenz - Nick Bostrom, Eliezer Yudkowsky: THE ETHICS OF ARTIFICIAL INTELLIGENCE).