Neuer Maschinen-Sieg über Menschen
15. März 2016Das asiatische Strategiespiel Go galt bis vor kurzem als eine der letzten Bastionen menschlicher Überlegenheit gegenüber Maschinen. Go ist bedeutend komplexer als Schach. Deshalb hatten Experten damit gerechnet, dass es noch etliche Jahre dauern würde, bis ein Programm gegenüber starken Spielern bestehen könnte.
Am Dienstag hat das Programm AlphaGo auch das letzte Spiel gegen den koreanischen Spitzenspieler Lee Sedol gewonnen. In einer Serie von fünf Spielen hatte Lee lediglich einen Achtungssieg erringen können. AlphaGo basiert auf tiefen neuronalen Netzwerken aus Soft- und Hardware, die das Netz von Nervenzellen im menschlichen Gehirn nachahmen. Und: AlphaGo hat sich Go-Spiel selbst beigebracht - nachdem es zunächst mit Millionen Spielzügen gefüttert worden war und anschließend immer wieder gegen sich selbst gespielt hatte.
DW: Professor Pauen, haben Künstliche Intelligenz und Maschinenlernen hier eine neue Qualität erreicht, die grundsätzliche Fragen zu dem Verhältnis von Mensch und Maschine aufwirft?
Michael Pauen: Ich glaube nicht. Es ist im Grunde genommen gar nicht anders zu erwarten, als dass Maschinen bestimmte, stark formalisierbare Fähigkeiten früher oder später besser beherrschen als Menschen. Dabei muss man sich klar machen: An bestimmten Stellen waren unsere Maschinen und Werkzeuge immer besser als wir - sonst hätten wir diese Werkzeuge ja nicht entwickelt.
Was für Menschen entscheidend ist, sind nicht einfach nur solche formalisierbaren Intelligenzleistungen. Sondern es ist die Fähigkeit, diese Intelligenz auf eine bestimmte Art und Weise zu einem bestimmten Zweck einzusetzen, sich Gedanken über diesen Zweck zu machen, diesen Zweck in einen größeren Kontext einzubinden.
Das letzte Spiel kommentierte einer der Schöpfer von AlphaGo, DeepMind Gründer Demis Hassabis, so: "AlphaGo hat gegen Ende zurück ins Spiel gefunden und ein knappes und intensives Finish geliefert". AlphaGo spielt so menschenähnlich, weil es auch intuitiv spielt. Was folgert für unser Verständnis vom Menschsein aus der Tatsache, dass eine Maschine so etwas zutiefst Menschliches wie Intuition durch Rechenleistung nachahmen kann?
Das Nachahmen des Menschen ist im Grunde genommen der beste Weg, wenn man merkt, dass Menschen bestimmte Dinge besser können. Ein Beispiel ist die Mustererkennung: Menschen fällt es überhaupt nicht schwer, Männer von Frauen zu unterscheiden. Maschinen hatten damit große Schwierigkeiten. Man hat dann versucht, bestimmte Aspekte der Verfahren, mit Hilfe derer Menschen das gemacht haben, auch bei Maschinen zu implementieren. Und so die Trefferquote der Maschinen deutlich erhöht.
Die Frage ist doch eher: Ist es überhaupt sinnvoll, an dieser Stelle in Hierarchien zu denken? Geht es wirklich darum, dass wir an bestimmten Stellen besser sind als Maschinen? Wir sind ja auch viel langsamer als Autos oder Flugzeuge, die sogar noch fliegen können.
Solche Hierarchiefragen lenken vom entscheidenden Punkt ab. Und der ist doch: Wie werden diese Maschinen eingesetzt? Im Moment werden sie durch Menschen eingesetzt und der entscheidende Punkt ist, dass die dafür sorgen, das sie zu unserem Nutzen eingesetzt werden und nicht, um uns zu Schaden.
Apropos Maschinen-Einsatz: Google wird mehr wollen, als einer Maschine das Go-Spielen beizubringen. Spiele sind für Künstliche Intelligenz ein Experimentierfeld, um Neues auszuprobieren. Wenn die sich bewähren, werden sie bald in anderen Anwendungen auftauchen. Nun verfügt kaum jemand über so viel Daten wie Google. Diese Big-Data-Flut wäre sicherlich interessantes Futter für eine selbst lernende Künstliche Intelligenz von der Kapazität AlphaGos. Aber wie geht man mit Erkenntnissen um, die auf Wegen zustande gekommen sind, die Menschen nicht mehr nachvollziehen können?
Ich glaube der Punkt, den Sie gerade gemacht haben, ist ganz entscheidend: Sie haben sich auf Google berufen und den Gebrauch, den Google jetzt von dieser Rechenkapazität macht. Natürlich ist es wichtig zu wissen, wie diese Maschinen zu ihren Ergebnissen kommen. Aber der noch viel wichtigere Punkt ist doch: Wie werden diese Ergebnisse eingesetzt?
Wenn die Maschinen zuverlässig sind und das tun, was sie tun sollen, dann kommt es darauf an, was die Google Eigner Brin, Page und Schmidt damit machen wollen. Ich glaube, darum müssen wir uns kümmern: Wie und wofür werden die Maschinen eingesetzt? Wer hat die Macht über diese Maschinen? Wer hat die Macht über die Daten und das ganze Geld, was mit diesen Daten verdient wird?
Einige Wissenschaftler machen sich Sorgen, zum Beispiel der Physiker Stephen Hawking. Der befürchtet, das Tempo der Entwicklung von Künstlicher Intelligenz sei so hoch, dass es sogar eine unerwartete Übernahme, eine Art Putsch Künstlicher Intelligenz geben könnte. Wie sehen Sie das?
Es gibt da super Leute wie Bill Joy oder Ray Kurzweil, Joy etwas pessimistischer und Kurzweil mit diesem Transhumanismus etwas optimistischer, die da wahnwitzige Zukunftsszenarien entwickeln. Ich meine die Ideen: Maschinen übernehmen die Macht. Das war bei Ray Kurzweil so. Können Sie mir sagen, wie sie das machen wollen?
Sollten wir so blöd sein, Maschinen zu konstruieren, die uns besiegen oder uns unterwerfen wollen? Wir sollten einfach aufpassen, dass wir nicht die Maschinen auf eine bestimmte Art und Weise mythologisieren und dann das Wichtigste aus dem Blick verlieren: Dass es letztlich auf die Menschen ankommt, welche die Entscheidungen treffen. Maschinen an sich haben keinen Willen, die haben keine Motive. Eine Maschine will nicht reich werden.
Professor Michael Pauen ist Philosoph und lehrt an der Humboldt-Universität Berlin.
Das Interview führte Matthias von Hein.