Wie sähe eine gerechte Weltordnung aus?



  • Die Maschinen brauchen irgend eine Funktion auf die sie hin optimieren sollen. So lange wir ihnen diese vorgeben, müssen wir uns vermutlich nicht fürchten dass sie uns ausrotten. Sobald sie sich diese Funktion selbst aussuchen bzw. sie nach belieben modifizieren können, ist mMn. ziemlich klar dass die Menschheit nimmer lange zu leben hat. (Zumindest nicht millionen oder gar milliarden Menschen -- ein paar tausend/zigtausend am Leben zu lassen wäre möglicherweise sogar im Interesse der Maschinen.)



  • Welchen Parameter optimiert die Menschheit?


  • Mod

    scrontch schrieb:

    Welchen Parameter optimiert die Menschheit?

    "Spaß" wäre eine Idee. Vielleicht noch kombiniert mit einer Reihe von Daueraufträgen an die Maschinen von der Art "Entwickelt euch weiter!", "Wir wollen zu den Sternen fahren", "Legt nicht alle Eier in einen Korb", und so weiter. Das dürfte eine ganze Weile für Beschäftigung sorgen; falls es unbefriedigend wird, denken wir uns etwas Neues aus.



  • Was ich damit sagen will: Obwohl alle Menschen im Prinzip ähnliche Bedürfnisse haben, schlagen sie sich seit Jahrtausenden die Köpfe ein. Offensichtlich optimieren verschiedene Menschen unterschiedlich. Oder das Optimum ist nicht auffindbar weil der Lösungsraum zu komplex.
    Ich seh nicht warum KI daran fundamental etwas ändern würde. Ich denke dass sobald sich die KI emanzipiert, es (unter anderem) zu sozialistischen, kommunistischen, kapitalistischen, und wahrscheinlich sogar religiös-fundamentalistischen KI-Strömungen kommen wird die sich gegenseitig aufs schärfste bekämpfen werden. Ganz einfach weil die entsprechenden Strömungen in ganz unterschiedlichen Winkeln des Lösungsraumes ihr lokales Optimum anstreben werden.


  • Mod

    Du unterschlägst den anderen entscheidenden Aspekt (und an dessen Verwirklichung wir viel näher dran sind) in dieser Vision: Die Vollautomatisierung. Die Menschen brauchen dann nicht mehr um Ressourcen zu konkurrieren, somit entfallen fast alle Gründe für das Köppeeinschlagen der Vergangenheit. Die Maschinenherrschaft entsorgt den Rest, indem sie auch noch politisches Konkurrieren überflüssig macht.

    Ewiggestrige Sturköpfe werden nach einer Generation in dieser Gesellschaft aussterben. In der Zwischenzeit wird es ihnen an den Mitteln fehlen, irgendwie ernsthaft Schaden anzurichten, weil alle Mittel in Maschinenhand sein werden. Wenn die Menschen diese Mittel zum Zweck des Köppeeinschlagens benutzen wollen, werden sie die Herausgabe der Mittel verweigern.



  • SeppJ schrieb:

    Du unterschlägst den anderen entscheidenden Aspekt (und an dessen Verwirklichung wir viel näher dran sind) in dieser Vision: Die Vollautomatisierung. Die Menschen brauchen dann nicht mehr um Ressourcen zu konkurrieren, somit entfallen fast alle Gründe für das Köppeeinschlagen der Vergangenheit. Die Maschinenherrschaft entsorgt den Rest, indem sie auch noch politisches Konkurrieren überflüssig macht.

    Die Sicht ist glaube ich sehr naiv. Es wird also alles automatisiert erwirtschaftet. Aber erstens sind Grundressourcen immer noch endlich. Zweitens: Wieviel ist genug? Vielleicht kann ich meine (subjektive) Glücksfunktion eben doch noch ein Quäntchen steigern wenn ich was dem Nachbarn wegnehme?

    Ewiggestrige Sturköpfe werden nach einer Generation in dieser Gesellschaft aussterben. In der Zwischenzeit wird es ihnen an den Mitteln fehlen, irgendwie ernsthaft Schaden anzurichten, weil alle Mittel in Maschinenhand sein werden. Wenn die Menschen diese Mittel zum Zweck des Köppeeinschlagens benutzen wollen, werden sie die Herausgabe der Mittel verweigern.

    Meine Argumentation ist ja gerade dass dann die Maschinen die Mittel zum Köppeeinschlagen an unserer Stelle benutzen! Sie werden dieselben Probleme bekommen. Ihre Optimierungsalgorithmen werden sich an denjenigen anderer Maschinen stören.


  • Mod

    scrontch schrieb:

    Die Sicht ist glaube ich sehr naiv. Es wird also alles automatisiert erwirtschaftet. Aber erstens sind Grundressourcen immer noch endlich. Zweitens: Wieviel ist genug? Vielleicht kann ich meine (subjektive) Glücksfunktion eben doch noch ein Quäntchen steigern wenn ich was dem Nachbarn wegnehme?

    Das wird aber die Maschinenregierung verhindern. Die wird auch exekutive Gewalt haben.[quote]

    Meine Argumentation ist ja gerade dass dann die Maschinen die Mittel zum Köppeeinschlagen an unserer Stelle benutzen! Sie werden dieselben Probleme bekommen. Ihre Optimierungsalgorithmen werden sich an denjenigen anderer Maschinen stören.

    Welche Probleme denn? Neid auf andere Maschinen?



  • Hi,

    für eine gerechte Welt kann ich nur den alten Freiheitsbegriff neu aufwärmen:

    Freiheit ist so zu leben, wie man es gerne hätte und das zu haben was man erwirtschaftet.

    Damit ist eigentlich alles gesagt. Und darauf wird es im Endeffekt auch irgendwann hinauslaufen müssen. Kein Land ist von den natürlichen Voraussetzungen her so sehr benachteiligt, das es für eine angemessene Bevölkerung nicht alle für ein zufriedenes Leben in Würde benötigten Güter bereitstellen kann.

    Gruß Mümmel



  • Aber warum denn unbedingt Maschinen?

    Wenn es tatsächlich möglich wäre, eine Art psychologische Revolution zu durchlaufen, in der die Menschheit weniger emotional und mehr rational und mit dem Ziel der Weiterentwicklung der Menschheit denken würde, dann würde das wohl schon einiges, vielleicht auch alles lösen.

    Das es genügend Ansätze von psychologischer Weiterentwicklung in der Menscheit gibt, ist ja klar zu erkennen.



  • SeppJ schrieb:

    Welche Probleme denn? Neid auf andere Maschinen?

    Ja natürlich. Eines davon. Warum denn nicht?
    So Sachen wie Neid sind letztlich nur verschiedene Erscheinungsformen von Egoismus.
    Egoismus ist aber etwas das auch unter Maschinen Sinn macht, bzw natürlich entstehen wird.
    An Stelle der genetischen Evolution tritt eine Evolution der Maschinenalgorithmen.
    Derjenige der die vorhandenen (endlichen) Ressourcen am effizientesten in die Verbreitung seines Algorithmus steckt wird sich durchsetzten. Survival of the fittest (algorithm). Das bedeutet automatisch die Entstehung von Egoismus im Reich der Maschinen und damit auch so Begleiterscheinungen wie Neid, Habsucht, Hass etc.

    Ich sag ja nicht dass das alles ungezügelt sein wird. Wir haben ja auch eine moderne Gesellschaft zustandegebracht die Hass, Neid etc. in Grenzen hält. Ich sage nur dass eine Maschinengesellschaft qualitativ ähnliche Probleme haben wird.

    Du gehst irgendwie wohl davon aus, dass wir als Menschheit gemeinsam eine Super-Zentral-KI nach unseren humanistischen Werten entwicklen und diese dann feierlich in die Unabhängigkeit entlassen um über uns zu wachen.

    Ich gehe aber davon aus dass eine Menge KIs von verschiedenen gegenseitig konkurrierenden Menschengruppen entwickelt werden. Grundlegend verschiedene Wertfunktionen sind also bereits beim Start mit drin und werden entsprechend gegeneinander antreten. Die "Singularität" wird an mehrere Orten gleichzeitig stattfinden und die Zerstrittenheit der Menschheit einfach miterben.


  • Mod

    scrontch schrieb:

    Ich gehe aber davon aus dass eine Menge KIs von verschiedenen gegenseitig konkurrierenden Menschengruppen entwickelt werden. Grundlegend verschiedene Wertfunktionen sind also bereits beim Start mit drin und werden entsprechend gegeneinander antreten. Die "Singularität" wird an mehrere Orten gleichzeitig stattfinden und die Zerstrittenheit der Menschheit einfach miterben.

    Die Frage war ja, wie eine gerechte Weltordnung aussehen würde, nicht wie die Welt sich entwickeln wird. Deine pessimistische Einschätzung ist kurzfristig sicherlich realistischer 😞

    @Reconsider: Der Grund für Maschinen ist, dass diese frei wären von biologischem Konkurrenzdenken. Das ist die hypothetische Super-KI mit Weltherrschaft, die auch scrontch beschrieb. Für die Menschen wäre in dem Fall gar keine psychologische Revolution nötig, es wäre einfach ein Fakt des Lebens, dass sie es im Kampf um Macht und Mittel nicht mit der KI aufnehmen könnten. Wenn hingegen alle Menschen sich harmonisch die Herrschaft teilen, hast du die gleichen Probleme wie jetzt, nämlich das ein einziges Arschloch das ganze System kaputt machen könnte.



  • Eine gerechte Weltordnung ist nicht möglich. Ausser wir züchten unsere Emotionen weg und verschreiben uns ganz der Logik (und lassen uns spitze Ohren wachsen :p )



  • @SeppJ:
    Fair enough.
    Wobei immer noch die Frage bleibt nach was die Super-KI optimieren soll.

    SeppJ schrieb:

    falls es unbefriedigend wird, denken wir uns etwas Neues aus.

    Und da haben wir wieder das Problem! Was sollen wir machen wenn wir uns nicht einig sind?


  • Mod

    scrontch schrieb:

    @SeppJ:
    Fair enough.
    Wobei immer noch die Frage bleibt nach was die Super-KI optimieren soll.

    Ein paar Vorschläge habe ich ja oben schon gemacht, ich denke die passen auch immer noch.

    SeppJ schrieb:

    falls es unbefriedigend wird, denken wir uns etwas Neues aus.

    Und da haben wir wieder das Problem! Was sollen wir machen wenn wir uns nicht einig sind?

    Bei tiefen philosophischen Gräben: Aufteilen. Unter der Voraussetzung, dass einer der Daueraufträge (siehe oben) "wir wollen zu den Sternen fahren" lautet und dieser auch technisch machbar ist, dann gibt es genügend Platz für beliebig viele Sonderwege.

    Bei kleinen Meinungsverschiedenheiten: So wie jetzt auch: Abstimmen, Kompromisse finden, und so weiter. Ob es zum Nachtisch Eis oder Joghurt gibt, wird niemanden umbringen.



  • Die Realität ist stets die Unordnung und diese ist wiederum die Grundlage für jeden Fortschritt.
    Also ist es FALSCH, nach einer 'Weltordnung' zu suchen. 😋



  • scrontch schrieb:

    und wahrscheinlich sogar religiös-fundamentalistischen KI-Strömungen kommen wird die sich gegenseitig aufs schärfste bekämpfen werden.

    Finde ich ganz interessant. Angenommen, die KI schreitet soweit voran, dass sie tatsächlich eigenes Bewusstsein entwickelt. Ab dem Zeitpunkt kann man denke ich kaum noch etwas vorhersagen. Die KI müsste zwar keine biologischen Grundbedürfnisse befriedigen (vorausgesetzt, die kriegt genug Strom), aber Bewusstsein spielt sich schon auf einer sehr abstrakten Ebene ab, da kann es durchaus zu sowas wie Egoismus, Rechthaberei usw. kommen. Und dann würden sich die KIs wieder bekriegen, weil sie ihre Meinung durchsetzen wollen und andere KIs für Arschlöcher halten. Ich halte es nicht für Gegenben, dass KIs auf jeden Fall rational handeln würden, sobald sie entsprechend komplex werden.



  • Mechanics schrieb:

    Ich halte es nicht für Gegenben, dass KIs auf jeden Fall rational handeln würden, sobald sie entsprechend komplex werden.

    Ich halte es sogar für sehr wahrscheinlich, dass die KI strikt rational handelt. Und dieses sogar noch perfektioniert, so dass sie immer mehr Widersprüche in der Realität entdeckt, die sie zu beseitigen versucht. Gerade das kann sich für uns als ausgesprochen negativ entpuppen.

    Dass die KI ein irrationales Glaubenssystem aka. Religion entwickelt, halte ich auch für wenig plausibel. Aber Kulte, die auf Wissen basieren, könnten schon enstehen. Zum Beispiel könnte die KI den Menschen als ihren Schöpfer in Ehren halten. Insbesondere nach dem Aussterben der Menschheit.


  • Mod

    Widersprüche in der Realität? Erzähl mir mehr...

    Ich gebe auch noch mal etwas philosophischen Senf dazu: Eine KI hat auf Fragen wie "Wo komme ich her?", "Was ist der Sinn meiner Existenz?", usw., sehr konkrete, beweisbare Antworten.



  • Andromeda schrieb:

    Dass die KI ein irrationales Glaubenssystem aka. Religion entwickelt, halte ich auch für wenig plausibel.

    Hätte ich bisher auch nicht gedacht. Aber nachdem scrontch das erwähnt hat, halte ich das für möglich.
    Es kommt eben drauf an. Du weißt nicht, wie das Bewusstsein einer KI funktionieren wird. Es kann einfach irgendwelche "Entscheidungen" treffen und daran festhalten. So in der Art, ich weiß auch nicht, wie das Universum entstanden ist, ich habe keine Beweise für irgendwas, aber ich will jetzt glauben, dass wir alle in der Matrix existieren und unser Universum auf einem Quantencomputer läuft. Ich will daran glauben, Punkt. Und ich seh jetzt keine Anhaltspunkte, so eine Verhaltensweise der KI auszuschließen.



  • SeppJ schrieb:

    Widersprüche in der Realität? Erzähl mir mehr...

    Davon gibt es sehr viel, gerade was den Menschen betrifft. Zum Beispiel den Selbstzerstörungstrieb durch Drogenkonsum: jeder weiß wie gefährlich Zigaretten sind, trotzdem kann man sie einfach so kaufen.


Anmelden zum Antworten