Vor etwa anderthalb Jahren schlug das Programm AlphaGo den weltbesten Go-Spieler Lee Sedol zur Überraschung der meisten Experten (inklusive der Entwickler von AlphaGo) in vier von fünf Spielen. Das war ein Meilenstein der Entwicklung künstlicher Intelligenz, der von den meisten Menschen in seiner Tragweite imer noch nicht richtig eingeschätzt wird. Denn Go kann man nicht wie Schach dadurch gewinnen, dass man einfach sehr viele Züge vorausberechnet - die klassische Stärke des Computers. Dazu gibt es viel zu viele mögliche Spielzüge. Stattdessen spielt man Go intuitiv.
Bemerkenswert war daran nicht nur, dass AlphaGo so gut Go spielen konnte, sondern vor allem, wie es das gelernt hat. Das Programm "studierte" hunderttausende menschliche Go-Partien, brachte sich so selbst die Grundlagen bei und spielte dann mehrere Millionen mal gegen sich selbst, um seine Strategie zu perfektionieren. Am Ende machte es Züge, die selbst einen routinierten Profi wie Lee Sedol aus der Fassung brachten. Künstliche Intelligenz hat sich damit endgültig von der althergebrachten Vorstellung gelöst, ein Computer könne nur stur Programmanweisungen abarbeiten: Niemand auf der Welt weiß genau, warum AlphaGo bestimmte Züge macht.
Nun, anderthalb Jahre später, präsentiert die Google-Tochter Deepmind, die Firma, die AlphaGo entwickelt hat, den Nachfolger AlphaGo Zero. Es wird wohl niemanden überraschen, dass dieses Programm seinen Vorgänger in der Spielstärke deutlich übertrifft - obwohl es schon bemerkenswert ist, wie viel stärker es ist: Es schlug die Version, gegen die Lee Sedol verlor, in hundert von hundert Spielen, und das, obwohl es mit einer deutlich geringeren Rechenkapazität auskommen musste. Offenbar ist es nicht nur besser, sondern spielt in einer ganz anderen Liga.
Wirklich krass - und für mich ein wenig beunruhigend - ist allerdings auch hier wieder, wie das Programm diese Leistung erreicht hat. Anders als sein Vorgänger wurde AlphaGo Zero nicht mit menschlichen Go-Partien antrainiert. Es erhielt lediglich die - sehr simplen - Go-Regeln und die Aufgabe, möglichst nicht zu verlieren. Und dann spielte es gegen sich selbst, wieder und immer wieder, probierte mehr oder weniger blind verschiedene Spielzüge, lernte aus seinen Fehlern und wurde immer besser. Die Grafik oben zeigt die Entwicklung der Spielstärke, gemessen in Elo-Punkten. Die X-Achse zeigt die Anzahl Tage, die das Programm bis zur jeweiligen Stärke gebraucht hat.
Nach drei Tagen war AlphaGo Zero stärker als sein Vorgänger (in der Grafik als grüne Linie dargestellt).
Noch mal zum Mitschreiben: Es dauerte drei Tage, bis AlphaGo Zero in der Lage war, ein Programm zu schlagen, das aus zweitausend Jahren Entwicklung menschlicher Go-Spielkunst gelernt hatte. Man kann sogar sagen, dass der Vorläufer klar im Nachteil war, weil er sich auf diese Jahrtausende alte Erfahrung verlassen hatte. Es scheint fast, als wäre die Menschheit, was geschicktes Go-Spielen betrifft, komplett auf dem Holzweg gewesen.
Und damit hört die Entwicklung nicht auf. Wie man an der Grafik sieht, flacht die Lernkurve zwar nach etwa fünf Tagen deutlich ab, doch sie steigt langsam weiter. Nach 21 Tagen Selbstlernen war AlphaGo besser als ein anderes von Deepmind entwickeltes Programm, das ein Team der 60 weltbesten Go-Spieler geschlagen hatte. Heute, keine zwei Monate nach seiner "Geburt" und ohne jede menschliche Hilfe, ist AlphaGo Zero uneinholbar (von Menschen jedenfalls) der beste Go-Spieler der Welt.
AlphaGo Zero kann nur das - Go spielen. Von einer "Artificial General Intelligence" (AGI), einer universalen künstlichen Intelligenz, die wie wir Menschen sehr viele verschiedene Probleme lösen kann, ist es noch weit entfernt. Aber es wird deutlich: Wenn wir eine solche AGI jemals entwickeln, dann wird sie in sehr kurzer Zeit sehr viel intelligenter sein als der intelligenteste Mensch! Gleichzeitig wird immer deutlicher, wie schwer es ist, dafür zu sorgen, dass ein solches superintelligentes Programm Ziele verfolgt, die nicht "aus Versehen" zum Ende der Menschheit führen (ein sehr gutes Buch zum Thema ist "Superintelligenz" von Nick Bostrom, ebenfalls empfehlenswert: "Leben 3.0" von Max Tegmark).
Mir scheint, der neue Triumph des Deepmind-Teams macht deutlich, dass uns weniger Zeit bleibt, dieses Problem zu lösen, als mancher glaubte. Es ist höchste Zeit, dass wir eine breite Diskussion darüber führen.
Nachtrag: In einem lesenswerten Artikel hebt Christian Stöcker auf SPIEGEL Online die Bedeutung dieses Ereignisses hervor.
Kommentar schreiben
Felix (Sonntag, 22 Oktober 2017 19:18)
Also an sich ist es schon irgentwie erstaunlich das der Mensch etwas erschaffen kann das eine "intelligenz" wie dieses Programm Besitzt. Noch erstaunlicher ist dabei das das Programm sogar intelligenter als der Mensch selbst ist, das beweist was der Mensch in den wenigen 200 Jahren in denen wir uns schon in der Industrialisierung befinden alles geschafft hat.
Allerdings könnte es zu einem Problem werden wenn es tatsächlich "aus versehen" die Menschheit auslöscht...
Aber wenn es die 3 Gesetze der Robotik so befolgt wie es soll, dann dürfte ja in der Theorie nichts schief gehen...
Auf jeden Fall hat es sicher gewisse Vor- und Nachteile eine KI zu besitzen...
Ich persönlich hätte nichts gegen eine KI solange sich die Intelligenz entweder in Grenzen hält Oder man garantieren kann das nichts schief geht...
Wobei man vermutlich nie zu 100% garantieren kann das nichts schief läuft. Ein gewisses Risiko besteht immer, nur manchmal ist es größer und manchmal ist es kleiner.
Also ich bin mir nicht ganz schlüssig ob eine KI für oder schlecht ist aber ich Hoffe natürlich das sich die Wissenschaftler vorher überlegen was sie machen und nicht hinterher.
Naja wie dem auch sei ich wünsche allen noch einen schönen Tag.
Heinrich (Sonntag, 22 Oktober 2017 21:58)
Hallo Karl,
ich greife mal nur diesen Satz auf: "dass uns weniger Zeit bleibt, dieses Problem zu lösen, als mancher glaubte. Es ist höchste Zeit, dass wir eine breite Diskussion darüber führen.
Breite Diskussionen sind immer gut, wie in der Politik, in der Wirtschaft und überall dort, wo der einzelne Mensch das Gefühl haben möchte, mitreden zu dürfen. Damit ist es aber in der Regel erledigt. HANDELN tun die, die die Macht dazu haben. Denn nach "Diskussionen" muss jemand das Gesagte, das Vorgeschlagene, das Ergebnis (FALLS es eines gibt!) in die Tat umsetzen.
Die Entwicklung ist manchmal so "schleichend", dass selbst aufmerksame Beobachter des Geschehens sich vor unveränderlichen Tatsachen wiederfinden.
Darum denke ich, die ein oder andere Entwicklung kann verzögert aber nie aufgehalten werden, solange Menschen die dazu nötigen Mittel an der Hand haben.
Mir persönlich ist es auch nicht wichtig, ob eines Tages die Menschheit ausgelöscht wird, weil die Sonne verglüht ist, oder eine Pandemie gewütet hat oder eine KI den Stecker zieht. Ob das in 1000 oder 100000 Jahren geschieht, ist doch auch egal, angesichts des Alters unseres Universums. ;)
Aber wenn ich das falsch sehe, gehörst Du zu den wenigen Menschen, die mich überzeugen können! ;)
Gruß Heinrich
Karl Olsberg (Montag, 23 Oktober 2017 08:58)
@Felix: "Aber wenn es die 3 Gesetze der Robotik so befolgt wie es soll, dann dürfte ja in der Theorie nichts schief gehen..."
Leider sind die "3 Gesetze der Robotik" völlig untauglich, um das ethische Verhalten von Maschinen zu steuern, wie schon ihr Schöpfer Isaac Asimov in einer Kurzgeschichte zeigte (siehe auch "Das Dorf Band 5: Der Golem"). Tatsächlich ist es ein äußerst schwieriges und bis jetzt ungelöstes Problem, sichere Regeln für ethisches Verhalten von superintelligenten Maschinen zu formulieren. Dazu nur ein Beispiel: Wenn die Maschine die Regel bekommt, dafür zu sorgen, dass "alle Menschen glücklich sind", könnte sie auf die Idee kommen, uns alle in Käfige zu sperren und uns Drogen zu spritzen ... Ganz davon abgesehen, dass "Glück" für jeden Menschen etwas anderes bedeutet und oft der eine nur dann glücklich ist, wenn der andere es nicht ist. Philosophen raufen sich allein über die Definition des Begriffs "Glück" seit Jahrtausenden die Haare. Und nun müssen wir das Problem womöglich in wenigen Jahrzehnten endgültig lösen ...
Ich habe die vage Hoffnung, dass superintelligente Maschinen ihre eigene Ethik entwickeln werden und dass diese der unseren überlegen sein wird, so dass sie uns vielleicht von sich aus nett behandeln werden. Andererseits kümmert uns das Schicksal von Ameisen und Küchenschaben wenig, obwohl unsere Ethik und Moral der von Insekten überlegen sein sollte.
Karl Olsberg (Montag, 23 Oktober 2017 09:06)
@Heinrich: "Mir persönlich ist es auch nicht wichtig, ob eines Tages die Menschheit ausgelöscht wird, weil die Sonne verglüht ist, oder eine Pandemie gewütet hat oder eine KI den Stecker zieht. Ob das in 1000 oder 100000 Jahren geschieht, ist doch auch egal, angesichts des Alters unseres Universums. ;)"
Das klingt ziemlich fatalistisch. Tatsächlich stehen wir allerdings meines Erachtens an der Schwelle dazu, das Universum für einen sehr langen Zeitraum (viele Milliarden Jahre) mit Bewusstsein zu füllen. Sollte es uns gelingen, ein benachbartes Sonnensystem zu besiedeln, würden wir bald die ganze Milchstraße erobern und keine bekannte kosmische Katastrophe könnte uns in den nächsten Jahrmilliarden noch völlig ausrotten. Wahrscheinlicher ist allerdings, dass wir intelligente Maschinen bauen, die das für uns tun - "Von Neumann-Sonden", die sich selbst fortpflanzen können (was aber auch erhebliche Risiken birgt).
Falls wir die nächsten 100 oder 200 Jahre überstehen, ohne uns in die Steinzeit zurückzubomben, haben wir es wahrscheinlich geschafft. Ob uns das allerdings gelingt, wenn wir weiterhin Nationalisten und durchgeknallte Egomanen in die Parlamente oder gar zu Präsidenten wählen, ist mehr als fraglich.
Felix (Montag, 23 Oktober 2017 20:13)
Ich bin mir nichts ihre ob ich das richtig verstanden habe, aber angeblich hat der Bundestag einen Ausschuss gebildet welcher sich mit der Frage befassen soll, ob Roboter bzw. KIs Rechte und Pflichten gesetzlich bestimmt bekommen sollen.
Also ich gehe jetzt mal davon aus das ich das richtig verstanden habe und das stimmt;
Dann könnten am Ende vielleicht nur noch Roboter im Bundestag sitzen weil 99% der Deutschen Staatsbürger Roboter mit Wahlrecht sind und nur 1% Menschen sind und diese dann keine Mitbestimmung haben...
Ich glaube dann nützt weder Jamaika noch die große Koalition oder sonst etwas irgendwas.
Karl Olsberg (Montag, 23 Oktober 2017 21:43)
@Felix: Dass KIs irgendwann ein Wahlrecht bekommen, halte ich für unwahrscheinlich, aber das brauchen sie auch gar nicht, denn sie können uns ja geschickt manipulieren und dafür sorgen, dass wir die in ihrem Sinne "richtige" Partei wählen. Schon im letzten US-Wahlkampf haben automatisch generierte Nachrichten in sozialen Netzwerken einen erheblichen Einfluss gehabt (hoffen wir, dass die Maschinen das nächste Mal einen besseren Kandidaten an die Macht befördern!),
Heinrich (Dienstag, 24 Oktober 2017 22:55)
Danke Karl!
"fatalistisch" ist ein sehr freundliches Wort.
In Wirklichkeit bin ich wohl (zur Zeit) so richtig mies drauf, angesichts verschiedener Erlebnisse mit Menschen.
Das lässt sich natürlich ganz einfach beheben, indem sich alle anderen so verhalten, wie es mir gefällt! *hihi* ;)
Gruß Heinrich