Google DeepMind Challenge


  • Mod

    Verwundert muss ich feststellen, dass es hier noch keinen Thread darüber gibt. Daher will ich mich mal bei unseren neuen Overlords beliebt machen. Für alle die keine Ahnung haben, worum es geht: Google hat ein Computerprogramm entwickelt, das einen der derzeit stärksten Spieler in Go herausfordert. Vor wenigen Minuten ist Alphago (Googles Programm) 2:0 in Führung gegangen in der Fünf-Spiele-Partie gegen Lee Sedol (이세돌). Nach jeweils höchst überzeugenden Leistungen, bei denen der Computer meiner Einschätzung nach vor allem da glänzte, wo man eigentlich die Stärken des Menschen vermuten würde: Starke Bewertung langfristiger Vorteile schon im frühen Spiel und Meistern von unbekannten Situationen in der Mitte mittels exzellenter Bewertung der Gesamtsituation.

    Go war der letzte große Denksport, in dem Menschen dem Computer noch Paroli bieten konnten. Sieht so aus, als würde dieser nun unweigerlich fallen. Selbst wenn Lee in dieser Partie noch einmal das Ruder herum reißen sollte, hat Alphago in den ersten beiden Spielen bereits bewiesen, dass es schon jetzt mindestens auf gleichem Niveau spielen kann und selbst wenn es verlieren würde, würden ein paar Monate mehr Training es nur noch spielstärker machen als es schon ist, wohingegen beim Menschen nicht mehr viel Raum nach oben ist.

    Ist Denksport nun offiziell tot, wenn Maschinen es sowieso besser können? Ist es nicht höchste Zeit, ähnlich gemachte Programme für Politik, Volks- und Betriebswirtschaft zu entwickeln und ihnen die Verantwortung für die Welt zu übertragen?

    Der offizielle Stream ist übrigens auch für Nicht-Go-Spieler verständlich und unterhaltsam. Das nächste Spiel ist Samstagmorgen.



  • Denksport tot?
    Jein, die Frage ist, ob es noch Spaß macht. Gegen die besseren Schachprogramme auf dem PC habe ich seit über 10 Jahren keine Chance mehr, ich muß die künstlich schwächer spielen lassen. Dauernd zu verlieren macht keinen Spaß, gegen eine gedrosselte Maschine zu gewinnen, hinterläßt einen schalen Geschmack.
    Auf Spiele, bei denen der Baum vollständig durchgerechnet ist (4Gewinnt, Mühle, glaube, sogar alle Dame- Varianten), hab' ich keine Lust mehr. Bei der hohen Rechenleistung genügen mittlerweile sogar einfache "BruteForce"- Automaten, um Menschen vom Brett zu fegen. Wer's nicht glaubt, soll mal gegen Psion auf nem Atari ST- Emulator spielen.
    Das Problem bei Go war die Explosion des Spielbaums, der Vorteil des Menschen, völlig fruchtlose Äste frühzeitig zu erkennen und nicht weiterzuverfolgen. Anscheinend haben sie das der Maschine nun auch effektiv beigebracht.

    Superrechner für die Weltprobleme? Erstmal können die keine Verantwortung tragen, die trügen die Programmierer, die sie vorparametrieren. Desweiteren sind sie Lösungsautomaten für genau ein Problem, man darf die Regeln nicht ändern oder unbekannte neue Faktoren einführen. Also aus 'nem Texas Hold'em unterm Spiel ein SevenCard Stud machen oder wie bei der BBT zu Schere, Stein, Papier noch Spock und Echse und sonst noch was dazugeben.
    Dann kommt noch das tiefe Mißtrauen der Menschen gegen Automaten selbst in einem eng festgelegten Regelwerk dazu, sonst gäbe es längst auf Autobahnen die Pflicht für selbstfahrende Autos, wenigstens auf Sonderspuren.

    Immerhin hat das mit Go nicht so lange gedauert, wie man noch 1997 nach dem Sieg gegen Kasparov getönt hatte. Deep Blue war ja damals kein selbstlernendes System, sondern Partie für Partie handgetuntes.
    Einfach mal sehen, wie sich das mit der neuronalen Rückkopplung weiterentwickelt. Wenn ein Dame- Computer "einfach so" auf Mühle umgelernt werden kann, dann kann man sich echt fragen, welche Regelkreise besser wo aufgehoben sind: Beim Menschen oder der Maschine.



  • Aus meiner Sicht sind Spiele wie Schach oder Go eh keine ernsthafte geistige Herausforderung. Man hat in diesen Spielen eine sehr begrenzte Welt mit einem wohl definierten Regelwerk. Das mag als Belustigung zwischen Menschen brauchbar sein, aber es ist kein Wunder, dass Computer darin irgendwann besser sind.

    SeppJ schrieb:

    Ist es nicht höchste Zeit, ähnlich gemachte Programme für Politik, Volks- und Betriebswirtschaft zu entwickeln und ihnen die Verantwortung für die Welt zu übertragen?

    Das ist etwas voellig anderes, da man hier keine streng begrenzte und regelbehaftete Welt mehr hat und auch die zu optimierende Zielfunktion alles andere als wohl definiert ist.

    Zusammengefasst: Mich wundert es nicht, dass der Computer hier gewinnt und ich finde es auch nicht weltbewegend. Es ist aus meiner Sicht in erster Linie eine Demonstration der Auswirkungen der Gueltigkeit von Moore's Gesetz in den letzten Jahrzehnten.

    Beeindruckender wuerde es sein, wenn die so einen D-Wave Computer dafuer nutzen wuerden und eine aehnliche Leistung mit einem konventionellen Computer nicht ansatzweise in Reichweite waere.



  • pointercrash() schrieb:

    gegen eine gedrosselte Maschine zu gewinnen, hinterläßt einen schalen Geschmack.

    Also magst du generell keine Computerspiele? Die machen alle es künstlich schwerer für die KI und "drosseln" sie.

    Das alles ändert nichts. Es ist toll wohin sich die moderne KI Welt hin entwickelt und wir werden auf lange Sicht immer mehr anwendungsgebiete finden. Aber was genau soll sich ändern?

    Auf Dauer werden Computer immer ein 1vs1 gegen Menschen gewinnen. Denn ein Computer ist ja auch nicht "alleine". AlphaGo hat ja was weiß ich wieviele Gigaflops auf unendlich vielen CPUs/GPUs. Klar werden Maschinen da auf Dauer Menschen schlagen können - egal welches Spiel.

    Die Frage ist doch: was können wir damit nützliches machen?

    @Gregor:
    Es ist sehr beeindruckend und hat auch mit Moores Law nichts am Hut. Denn AlphaGo ist ein komplett anderer Ansatz zu den herkömmlichen KIs in Go.
    Denn "begrenztes" Regelwerk trifft bei Go zwar zu, aber die Anzahl der Züge/Stellungen ist Unendlich. Was es bei Schach zB nicht ist. Go und Schach in Bezug auf KIs zu vergleichen ist witzlos.



  • Hi SeppJ,

    SeppJ schrieb:

    Ist es nicht höchste Zeit, ähnlich gemachte Programme für Politik, Volks- und Betriebswirtschaft zu entwickeln und ihnen die Verantwortung für die Welt zu übertragen?

    Wenn die Proigrammierer das könnten, hätten sie es nicht nötig, mühsam ihr Geld als Programmierer zu verdienen, sondern könten als Präsidenten viel erfolgreicher sein.
    Kein Expertensystem kann besser sein als der Experte der es füttert.
    Die Einbildung, dass men eine ganze Volkswirtschaft am Computer simulieren und planen kann, hatt die DDR schon vor Jahrzehnten. Ist auch gescheitert.

    In der Praxis sieht das völlig anders aus. Da reicht es, wenn Lady Gaga oder Paris Hilton irgend einen unförmigen Sack, von dem kein Computer Marktchancen berechnen könnte, auf irgend einem Event begeistert mit sich rumtragen würde und das wäre der neueste Renner am Taschenmarkt. Wie will man das simulieren. Vor allem, wenn das kein gezielter Gag war, sondern sie vielleicht nur im Suff statt ihrem Hundetäschchen den Beutel von irgend einer Oma erwischt hat.

    Gruß Mümmel



  • SeppJ schrieb:

    Ist es nicht höchste Zeit, ähnlich gemachte Programme für Politik, Volks- und Betriebswirtschaft zu entwickeln und ihnen die Verantwortung für die Welt zu übertragen?

    Zumindest wäre es Zeit mal damit anzufangen diese Dinge ordentlich zu analysieren. Also Modelle zu entwerfen, zu testen etc. Im Prinzip anzufangen das nötige Fundament zu bauen um solche Programme zu entwickeln.

    Wobei es wohl fast sicher Unternehmungen in diese Richtung gibt. Würde mich nur wundern wenn die genügend Resourcen zur verfügung hätten damit da auch 'was draus werden kann.


  • Mod

    muemmel schrieb:

    Hi SeppJ,

    SeppJ schrieb:

    Ist es nicht höchste Zeit, ähnlich gemachte Programme für Politik, Volks- und Betriebswirtschaft zu entwickeln und ihnen die Verantwortung für die Welt zu übertragen?

    Wenn die Proigrammierer das könnten, hätten sie es nicht nötig, mühsam ihr Geld als Programmierer zu verdienen, sondern könten als Präsidenten viel erfolgreicher sein.
    Kein Expertensystem kann besser sein als der Experte der es füttert.
    Die Einbildung, dass men eine ganze Volkswirtschaft am Computer simulieren und planen kann, hatt die DDR schon vor Jahrzehnten. Ist auch gescheitert.

    Das klingt wie der Pferdezüchter, der gegen Dampfmaschinen wettert. Die DDR hatte diese Planspiele eben nicht mit unfassbar vielen Computerressourcen und logischen Regeln erstellt, sondern mit alten Männern, die von politischen Ideologien geleitet wurden. Außerdem wäre es nicht nötig gewesen, dass einer der DeepMind Programmierer überhaupt Go spielt (in der Praxis tun sie es, aber das hat andere Gründe). Die Regeln und Strategien sind hier nicht einprogrammiert wie bei einem Schachcomputer. Dies ist ein ganz neuer Ansatz, darum war es überhaupt möglich, denn mit klassischen Ansätzen wäre die nötige Rechenleistung viel zu hoch. Sie haben dem Programm viele, viele Beispiele für Go-Spiele gezeigt und daraus hat es gelernt, Go zu spielen.

    hustbaer versteht mich. Das DeepMind heute auf Politik los zu lassen wird nicht funktionieren. Aber es ist höchste Zeit zu erforschen, wie man das Ziel wohl angehen könnte. Und der erste, der damit Erfolg hat, wird einen großen Vorteil erringen.

    Ich wette, in den 90ern haben die Aktienhändler auch alle groß getönt, wie ein Computer niemals den menschlichen Instinkt an der Börse ersetzen könnte. Und heute geht es darum, wer die beste Leitung zum Börsencomputer hat, damit das eigene Handelsprogramm schneller reagieren kann als das der Konkurrenz.



  • Es ist schon erstaunlich was sich alles mit Machine Learning erreichen lässt, allerdings ist das keine Magie. Es läuft letztendlich darauf hinaus das der Computer sich aus einem Haufen von Eingabedaten + Ergebnis berechnet wie welche Eingabe auf das Ergebnis einwirkt. Fehlen für das Problem zu viele entscheidene Eingaben, oder sind zu wenig Beispiele vorhanden, ist die Fehlerrate ziemlich groß. Bei Go ist die Eingabe offensichtlich das aktuelle Spielfeld und das Fehlen von Daten wurde dadurch gelöst das die KI gegen sich selbst verschiedene Varianten durchgespielt hat. Es ist also nur eine Frage der Zeit gewesen bis das System gut genug Kalibriert war.

    Zu verlangen das eine KI nun Zufallsereignisse errät, geht damit ziemlich in die falsche Richtung, da man das System ja gar nicht mit Daten füttert, die mit dem Auftreten solcher Ereignisse zu tun haben. Das heißt aber nicht das Machine Learning unbrauchbar ist. Es gibt Probleme aus der echten Welt bei denen man das System zumindest mit einem guten Teil der benötigten Daten versorgen kann und dann mit einer hohen Wahrscheinlichkeit das richtige Ergebnis bekommt. Krebsdiagnose ist da ein ziemlich prominentes Beispiel.



  • SeppJ schrieb:

    hustbaer versteht mich. Das DeepMind heute auf Politik los zu lassen wird nicht funktionieren. Aber es ist höchste Zeit zu erforschen, wie man das Ziel wohl angehen könnte. Und der erste, der damit Erfolg hat, wird einen großen Vorteil erringen.

    Klar. Aber man muss trotzdem bedenken dass Wirtschaft anders funktioniert als ein Spiel in dem es illegale und legale Zuege gibt. In der Wirtschaft ist alles erlaubt und es gibt unendlich mehr Faktoren und es gibt keine Testphasen die man machen kann - man kann nicht ein Land einfach mal 100 millionen Mal bankrott gehen lassen um zu lernen.

    Also das sind schon komplett andere Sachen. Natuerlich sollte man in die Richtung sehen und weiter forschen, aber wir haben aktuell nicht mal den Hauch einer Idee wie man das Problem angehen koennte.

    Machine Learning funktioniert eben nur wenn die Maschine Fehler machen darf und Ergebnisse Bewerten kann.


  • Mod

    Shade Of Mine schrieb:

    SeppJ schrieb:

    hustbaer versteht mich. Das DeepMind heute auf Politik los zu lassen wird nicht funktionieren. Aber es ist höchste Zeit zu erforschen, wie man das Ziel wohl angehen könnte. Und der erste, der damit Erfolg hat, wird einen großen Vorteil erringen.

    Klar. Aber man muss trotzdem bedenken dass Wirtschaft anders funktioniert als ein Spiel in dem es illegale und legale Zuege gibt. In der Wirtschaft ist alles erlaubt und es gibt unendlich mehr Faktoren und es gibt keine Testphasen die man machen kann - man kann nicht ein Land einfach mal 100 millionen Mal bankrott gehen lassen um zu lernen.

    Also das sind schon komplett andere Sachen. Natuerlich sollte man in die Richtung sehen und weiter forschen, aber wir haben aktuell nicht mal den Hauch einer Idee wie man das Problem angehen koennte.

    Machine Learning funktioniert eben nur wenn die Maschine Fehler machen darf und Ergebnisse Bewerten kann.

    Das schöne ist doch, dass die Maschine all diese Szenarien im Voraus in Drölfzigmillionen Varianten gegen sich selber durchprobieren kann, wohingegen die menschlichen Politiker und Manager einfach nur lokal dem Weg des geringsten Widerstandes folgen.



  • SeppJ schrieb:

    Das schöne ist doch, dass die Maschine all diese Szenarien im Voraus in Drölfzigmillionen Varianten gegen sich selber durchprobieren kann, wohingegen die menschlichen Politiker und Manager einfach nur lokal dem Weg des geringsten Widerstandes folgen.

    Nein. Das geht naemlich von perfekter Information aus. Die hast du aber nicht. Auch weisst du nicht was alles passieren kann. Die Welt ist ein komplett offenes System und nicht deterministisch. Da stoesst du mit Machine Learning sehr sehr sehr schnell an die Grenzen.

    Man kann eben nicht alle Szenarien durchspielen.


  • Mod

    Aber wäre es nicht trotzdem ein Fortschritt gegenüber dem Menschen? Ich sehe auch nicht den Hinderungsgrund aufgrund nicht-perfekter Information. Ein Computer kann doch jetzt schon toll unvollständige Muster erkennen und super mit Wahrscheinlichkeiten umgehen.

    Shade Of Mine schrieb:

    Die Welt ist ein komplett offenes System und nicht deterministisch. Da stoesst du mit Machine Learning sehr sehr sehr schnell an die Grenzen.

    Das sehe ich als wahres Hindernis an, weil es die konkrete Umsetzung des Programms schwierig macht. Daher wäre hier die Entwicklungsarbeit notwendig. Man kann ja klein anfangen. Z.B. eine McDonalds Filiale Flohmarktstand von einem Computer managen lassen.
    An sich hat ein Mensch aber die gleiche Schwierigkeit mit den Eigenschaften der Welt, daher sehe ich nicht, wieso das so utopisch sein sollte, ihn in dieser Hinsicht zu ersetzen.



  • Klar soll man in die Richtung forschen. Es waere toll wenn eine KI sowas machen koennte. Aber aktuell geht das nicht und das Machine Learning was wir aktuell verwenden kann das auch nie erreichen. Denn ganz unabhaengig von den vielen Faktoren die man nie alle bedenken kann, haben wir auch das Problem der Ergebnisbewertung. Wonach bewertet man den Erfolg eines Flohmarktstandes?

    Aktuell sind das alles Sachen die wir mit einer KI eben nicht machen koennen, auch AlphaGo hilft hier nicht. AlphaGo ist ein sehr interessanter Schritt in eine wichtige Richtung, aber Go ist ein geschlossenes System und dahin gehen die naechsten Schritte: wir erschaffen KIs fuer geschlossene Systeme, wo es limitierten Input gibt und vor allem, und das ist das wichtigste: klare Ergebnisbewergung.

    Eine KI die eine Krankheit diagnostiziert zB ist leicht zu bewerten: ja, hat die Krankheit erkannt vs nein, hat nicht. Und solche klaren Ergebnisse sind wichtig, sonst funktioniert das lernen naemlich nicht.



  • @SeppJ
    Ich sehe das glaube ich wirklich gleich wie du 🙂
    Die menschliche Intelligenz ist nämlich auch keine Zauberei. Und funktioniert trotz sehr schwammiger, unvollständiger und z.T. fehlerhafter Eingabedaten etc. recht gut.

    Was vermutlich keinen Sinn machen würde wäre sich jetzt hinzusetzen mit dem Ziel "wir bauen in den nächsten 5 Jahren das Programm das die Probleme der Welt löst". Oder etwas in der Art.

    Aber man sollte eben anfangen in die Richtung zu forschen wie man z.B. die Dynamik von Gesellschaften maschinengestützt analysieren kann. Die Idee gibt es ja schon lange. Ich habe aber auch den Eindruck dass jetzt langsam die Zeit gekommen ist wo man ernsthaft anfangen könnte in die Richtung zu forschen.

    Bis zu einem Multivac oder Magi ist natürlich noch viel viel VIEL zu tun. Nur wenn man nie anfängt in die Richtung zu forschen, dann wird es auch nie 'was werden.



  • Shade Of Mine schrieb:

    Eine KI die eine Krankheit diagnostiziert zB ist leicht zu bewerten: ja, hat die Krankheit erkannt vs nein, hat nicht. Und solche klaren Ergebnisse sind wichtig, sonst funktioniert das lernen naemlich nicht.

    Das Lernen wird sicherlich schwerer wenn das Ergebnis vage ist. Unmöglich aber nicht, und da ist AlphaGo das beste Beispiel für:

    AlphaGo ist vor allem durch reinforced learning so stark geworden. Laut Paper gewinnt die reinforced Variante >80% der Spiele gegen die supervised learning Variante, die rein aus der Datenbank von Zügen Menschlicher Spieler gespeist wurde. Die RL Vorgehensweise sah so aus, dass sie 2 Instanzen von AlphaGo gegeneinander spielen lassen haben, und die Züge des Sieger als gut und die Züge des Verlierers als schlecht in den Datensatz aufgenommen wurden. Anschließend wurde eine neue Variante von AlphaGo angelernt, die gegen eine zufällige alte Variante gespielt hat, wobei wieder die Züge entsprechend gewertet wurden usw.

    Da AlphaGo nur mit einer gewissen Warhscheinlichkeit gute Züge ausspuckt, wird das System auch nur mit vagen Ergebnissen befeuert. Solange die Wahrscheinlichkeit für gute Züge aber > 50% ist und man nicht in eine Sackgasse kommt, wo die KI sich auf sich selbst anpasst (overfitting), macht das System entsprechend Fortschritte bei der Maximierung der Siegwahrscheinlichkeit für jeden Zug. Und das ohne zu wissen welche Variationen alle nach einem Zug folgen können. Das ist das was oft mit Intuition betitelt wird.



  • Tobiking2 schrieb:

    Shade Of Mine schrieb:

    Eine KI die eine Krankheit diagnostiziert zB ist leicht zu bewerten: ja, hat die Krankheit erkannt vs nein, hat nicht. Und solche klaren Ergebnisse sind wichtig, sonst funktioniert das lernen naemlich nicht.

    Das Lernen wird sicherlich schwerer wenn das Ergebnis vage ist. Unmöglich aber nicht, und da ist AlphaGo das beste Beispiel für:

    Nein. Das Ergebnis bei Go ist simpel: man hat gewonnen, man hat nicht gewonnen.

    Das ist etwas komplett anderes. Go ist ein geschlossenes System. Ein sehr komplexes geschlossenes System - und hier ist der Durchbruch und das was AlphaGo so beeindruckend macht: das geschlossene System Go ist extrem Komplex. Aber, es ist ein geschlossenes System mit einer simplen Ergebnisbewertung.

    Ein Flohmarktstand ist ein offenes System mit enorm komplexer (wenn überhaupt möglicher) Ergebnisbewertung.



  • Shade Of Mine schrieb:

    Nein. Das Ergebnis bei Go ist simpel: man hat gewonnen, man hat nicht gewonnen.

    ...

    Ein Flohmarktstand ist ein offenes System mit enorm komplexer (wenn überhaupt möglicher) Ergebnisbewertung.

    Mir ist nicht ganz klar auf welcher Ebene du die Komplexität bei der Ergebnisbewertung siehst. Die Analyse warum ein Mensch einen Flohmarktstand eröffnet, kann zwar durchaus philosophisch werden, wenn es aber z.B. um Geld geht und der Betreiber einfach nur seinen Lebensunterhalt verdienen möchte, warum nicht einfach "Einnahmen > Ausgaben + Lebensunterhalt" als Bewertung nehmen? Das Finanzamt könnte dir die Ergebnisbewertung vermutlich sogar liefern. Was unrealistisch ist, ist das Sammeln der Daten die Einfluss auf die Einnahmen haben. Erst dort kommen Faktoren wie Produkte, Werbung etc. rein.



  • Weil Wirtschaft so nicht funktioniert.

    Als Beispiel: wenn ich alle Besucher meines Standes beklaue habe ich mehr Einnahmen.


  • Mod

    Shade Of Mine schrieb:

    Als Beispiel: wenn ich alle Besucher meines Standes beklaue habe ich mehr Einnahmen.

    Aber nicht sehr lange.



  • SeppJ schrieb:

    Shade Of Mine schrieb:

    Als Beispiel: wenn ich alle Besucher meines Standes beklaue habe ich mehr Einnahmen.

    Aber nicht sehr lange.

    Das ist deine persoenliche Vermutung. Hat mit der Realitaet aber nichts zu tun.
    Beweis: Nicht alle Diebe werden geschnappt.


Anmelden zum Antworten