Standort: fm4.ORF.at / Meldung: "Superintelligenz: Freund oder Feind?"

Burstup

Physische Welt, virtuelle Realität. Politik und Kultur.

25. 4. 2016 - 13:18

Superintelligenz: Freund oder Feind?

Wie soll sich die Menschheit verhalten, wenn es ihr gelingt künstliche Intelligenz zu erschaffen, die dem Intellekt des Menschen überlegen ist? Der Philosoph Wolfhart Totschnig schlägt Respekt und Freude vor.

Eine künstliche Intelligenz, die hinsichtlich logischer, kreativer und sozialer Kompetenzen dem menschlichen Gehirn überlegen ist, wird als Superintelligenz bezeichnet. Die Entwicklung einer solchen sei noch zu unseren Lebenszeiten möglich, sagt Wolfhart Totschnig, Assistenzprofessor für Philosophie an der Universidad Diego Portales (Santiago, Chile). Das zeige sich unter anderem am jüngsten Sieg (4:1) von Googles Computerprogramm Alpha Go gegen Go-Weltmeister Lee Sedol. Das Erstaunlichste daran sei nämlich, dass die Programmierer von Alpha Go selbst keine guten Go-Spieler oder Go-Experten sind, so Totschnig. "Die Programmierer haben die Software nicht mit Strategien und Expertenwissen über Go gefüttert, sondern sie haben ein Programm entwickelt, das die fundamentalen Regeln von Go kennt und selbst lernen kann. Das Programm hat sich dann vom blutigen Anfänger zum Weltmeister selbst entwickelt."

Wolfhart Totschnig

Universidad Diego Portales

Prof. Wolfhart Totschnig

Neue Ära

Das Entstehen einer Superintelligenz, wenn es geschieht, wäre für Totschnig das wichtigste Ereignis der Menschheitsgeschichte. "In bestimmten Bereichen wäre es das Ende der menschlichen Ära. Superintelligenz würde zum Beispiel in der Wissenschaft die Führung übernehmen, in der Philopsophie, vielleicht auch in der Kunst." Was wären die Konsequenzen daraus? Wolfhart Totschnig sieht drei mögliche Szenarien. Die Superintelligenz könnte den Menschen als Bedrohung wahrnehmen und sich deshalb entschließen, Krieg gegen den Menschen zu führen, wie das etwa in den "Terminator"-Filmen durchgespielt wird.

Als zweite Möglichkeit sieht Totschnig, dass die Superintelligenz der Menschheit zwar nicht feindlich gesinnt ist, sie ihr aber einfach egal ist – in diesem Fall könnte die Superintelligenz den Lebensraum des Menschen zerstören, indem sie zum Beispiel den ganzen Planeten mit Solaranlagen oder Atomkraftwerken bebaut. Dritte Möglichkeit: Die Superintelligenz will den Menschen helfen und dienen, aber weil diese sich obsolet fühlen, geraten sie in eine existenzielle Krise.

Programmierte Ziele

Nicht nur Wolfhart Totschnig macht sich Gedanken über diese Möglichkeiten. Auch der schwedische Philosoph Nick Bostrom schrieb in seinem 2014 publizierten Buch "Superintelligence: Paths, dangers, strategies" von den möglichen Gefahren. Er schlägt vor, Software und Maschinen mit künstlicher Intelligenz immer so zu programmieren, dass sie als oberstes Ziel den Schutz der Menschheit hätten. Totschnig allerdings erscheint die Vorstellung, einer selbst lernenden Superintelligenz solche Wertvorstellungen einzupflanzen, illusorisch: "Wenn sie uns überlegen ist, dann ist es sehr wahrscheinlich, dass sie ihre eigenen Ziele und Wertvorstellungen entwickeln wird. So wie wir entscheiden, was wir mit unserem Leben tun wollen, so wird auch die Superintelligenz autonom und selbstbestimmt entscheiden. Die Hoffnung Nick Bostoms und anderer Menschen, die sich Gedanken darüber machen, erscheint mir deshalb fragwürdig."

Vertrauen

Für die Superintelligenz könnten Menschen eine Bedrohung darstellen, weil sie die Kontrolle über die Hardware haben, auf der die Software läuft, also über Computer und Internet. "Auch wenn beide Seiten eigentlich friedlich sind, könnte sich ein Konflikt ergeben", sagt Totschnig, "weil beide Seiten sehen, dass sie von der anderen Seite bedroht werden. Sie könnten dadurch dazu neigen, einen Angriff von der anderen Seite vorwegzunehmen, indem sie selbst angreifen. In einer solchen Situation hängt alles davon ab, ob sich ein Vertrauen bilden kann zwischen den beiden Parteien – ein Vertrauen, dass die andere Seite nicht angreifen wird und man deshalb selbst nicht angreifen muss."

Die Menschheit müsse sich über die Möglichkeit dieser Situation bereits jetzt Gedanken machen. "Zu versuchen, in dieser Situation die Superintelligenz zu kontrollieren, ist möglicherweise gerade der falsche Ansatz, weil die Superintelligenz diesen Kontrollversuch als Bedrohung wahrnehmen könnte. Dadurch würde vielleicht ein Konflikt entstehen, der sich sonst vermeiden ließe." Nick Bostroms Vorschlag, die Superintelligenz zu kontrollieren, ist für Wolfhart Totschnig gefährlich und kontraproduktiv.

Kosmopolitisch denken

Der politische Spielraum, der benötigt wird, um friedlich mit einer Superintelligenz zu koexistieren, könne nur durch Respekt entstehen, sagt Totschnig. "Es wird ratsam sein, die Superintelligenz nicht als bloßes Werkzeug, als Maschine oder als Sklaven zu behandeln, sondern als selbstbestimmtes Wesen." Die Wahrscheinlichkeit eines Konflikts hänge davon ab, ob wir in unserem Umgang mit künstlicher Intelligenz kosmopolitisch denken könnten – schließlich müssten wir dann unsere Welt mit anderen Intelligenzen teilen.

Die Aussicht, obsolet zu werden, könnte uns mit Freude statt Angst erfüllen. "Natürlich finde ich die Perspektive, als Philosophieprofessor überflüssig zu werden, weil das eine Superintelligenz besser kann, bedrohlich", so Totschnig. "Doch die Perspektive, dieses wichtige Ereignis – die Entstehung künstlicher Intelligenz – selbst miterleben zu dürfen, finde ich sehr spannend." Wenn uns Kunst, Wissenschaft, Philosophie etc. wirklich wichtig sind, dann ist die Tatsache, darin von einem kompetenteren Wesen übertroffen zu werden, objektiv betrachtet eine gute Sache – auch wenn die Leistungen dann nicht mehr unsere eigenen sind. Wir hätten dann zwar nichts mehr zu tun, könnten aber als Zuschauer die Show genießen, unser Leben Familie und Freunden widmen, die neue Ära genießen und stolz darauf sein, dass wir die Superintelligenz erschaffen haben.