Erstellt am: 19. 1. 2017 - 10:25 Uhr
Künstliche Neuronale Netze: Teil unseres Alltags
Die Frage, wann es intelligente Androiden geben wird, bietet spannenden Diskussionsstoff – jemanden wie Lieutenant Commander Data in Star Trek, den Terminator oder die Hosts in der neuen Fernsehserie „Westworld“. In jüngster Zeit werden bei vielen K.I.-Systemen sogenannte Künstliche Neuronale Netzte eingesetzt (KNN) – Software, die die Neuronen des menschlichen Gehirns nachbildet. Solche KNN steuern zum Beispiel Googles selbstfahrende Autos oder werden zur Bilderkennung eingesetzt.
Fast jeder, der das World Wide Web benützt, hat auch schon eine KNN eingesetzt. Zum Beispiel wurde vor kurzem auch die Übersetzungswebsite „Google Translate“ auf ein Künstliches Neuronales Netz umgestellt – seitdem übersetzt sie Texte richtiger und vor allem menschenähnlicher als zuvor. „Wichtig ist das prinzipiell, weil Sprachverständnis eine der großen Herausforderungen ist“, sagt der Philosoph Wolfhart Totschnig. Er lehrt und forscht an der chilenischen Universidad Diego Portales in Santiago. „Es gibt Systeme, die an den Börsen handeln können, die Autofahren können, die Bilder erkennen können – aber Sprachverständnis war noch eines der ungelösten Probleme.“
Einem herkömmlichen Computerprogramm gibt man Regeln, die es dann exekutiert. Einem künstlichen neuronalen Netz aber gibt man Beispiele – etwa tausende Bilder von Hunden und Katzen. Das KNN lernt dann selbst, die Hunde- von den Katzenbildern zu unterscheiden. „Es braucht nur genügend Beispiele“, sagt Wolfhart Totschnig. „Die gab es bei Google Translate ebenfalls. Denn es gibt viele mehrsprachige Websites mit von Menschen geschaffene Übersetzungen. Diese konnte man zum Trainieren eines KNN für Übersetzungsaufgaben verwenden.“
Viele alltägliche Websites und Applikationen nützen Künstliche Neuronale Netze, zum Beispiel auch die Telefonie- und Messenger-App Skype. Doch wir Menschen sehen Künstliche Intelligenz oft nicht als etwas, das bereits existiert, an. „Forscher in diesem Bereich“, sagt Wolfhart Totschnig, „beklagen sich manchmal darüber, dass K.I. in der allgemeinen Wahrnehmung immer das ist, was es noch nicht gibt. Das, was noch nicht funktioniert. Sobald es aber dann ein System gibt, das eine bestimmte Sache kann, heißt es gleich: ‚Naja, aber das ist nicht wirklich intelligent. Das ist nur eine Maschine, die rechnet ja nur. Künstliche Intelligenz wäre dann dieses oder jenes andere Ding, das es noch nicht gibt.“
Universidad Diego Portales
In der zweiten Hälft des 20. Jahrhunderts galt etwa Schach als ein wichtiger Meilenstein. Viele Menschen sagten: „Wenn es einmal einen Computer gibt, der besser Schach spielen kann, dann wäre das ein intelligenter Computer.“ 1996 besiegte Deep Blue den Schachweltmeister Garri Kasparow. Ab dann sagte man, nur ein Computer, der einen Go-Weltmeister besiegen kann, wäre wirklich intelligent. 2016 besiegte Googles Software Alpha Go den Weltmeister Lee Sedol.
Aber wir schauen weiter in die Zukunft – und das vielleicht größte ungelöste Problem der K.I. ist eben die menschliche Sprache. „Sprachverständnis“, sagt Wolfhart Totschnig, „ist deshalb wichtig, weil ein System, das darüber verfügt, mit den menschlichen Erkenntnissen, die im Internet verfügbar und in Form von natürlicher Sprache formuliert sind, selbst lernend das eigene Weltverständnis verbessern. Das System könnte ein Weltverständnis entwickeln, das dann möglicherweise Selbstverständnis inkludiert – Verständnis davon, wer man selbst ist und welche Rolle man in dieser Welt hat.“
Google Translate hat immer schon so funktioniert, dass es Texte, die in mehreren Sprachen im Internet verfügbar waren, verglichen hat – einer der wesentlichen Datensätze dabei waren die Texte auf der Website der Europäischen Union. Jetzt erledigt diesen Vorgang also ein selbstlernendes Künstliches Neuronales Netz. Ob sich daraus einmal eine K.I. mit Selbstverständnis entwickeln wird, ist nicht vorherzusagen – doch wir sollten darüber nachdenken, sagt Wolfhart Totschnig.
Superintelligenz:
Freund oder Feind?
Bei politischen und militärischen Entscheidungsträgern herrsche immer noch die Vorstellung, dass K.I.-Systeme auch in Zukunft immer das tun werden, was wir ihnen sagen. „Ich kann mir aber vorstellen, dass eine von Menschen geschaffene Künstliche Intelligenz, die Selbstverständnis entwickelt hat, die ihr vorgelegten Ziele hinterfragt. Dass sie autonom die Meinung ändert und sich andere Ziele setzt.“ Im Idealfall entscheidet sich eine intelligente militärische Kampfdrohne dann für einen gewaltlosen Weg – und wird nicht zu einem Teil von Skynet.