Wie sähe eine gerechte Weltordnung aus?


  • Mod

    Schneewittchen schrieb:

    SeppJ schrieb:

    Schneewittchen schrieb:

    Bei einer beidseitigen Möglichkeit zur unwiderruflichen Auslöschung der anderen Seite gäbe es 0% Siegchance. Oder glaubst du, dass die USA jemals versucht hätten die Regierungen Südlich ovn Mexiko zu stürzen, wenn Letztere zu einem effektiven Gegenschlag in der Lage wären?

    Eben! Ich verstehe nicht, inwiefern du da drin einen Widerspruch zu Grumm siehst 😕

    Ich habe seine Aussage um einen wichtigen Punkt ergänzt.

    Der komplett falsch ist und deiner eigenen Begründung widerspricht 😕



  • SeppJ schrieb:

    Schneewittchen schrieb:

    SeppJ schrieb:

    Schneewittchen schrieb:

    Bei einer beidseitigen Möglichkeit zur unwiderruflichen Auslöschung der anderen Seite gäbe es 0% Siegchance. Oder glaubst du, dass die USA jemals versucht hätten die Regierungen Südlich ovn Mexiko zu stürzen, wenn Letztere zu einem effektiven Gegenschlag in der Lage wären?

    Eben! Ich verstehe nicht, inwiefern du da drin einen Widerspruch zu Grumm siehst 😕

    Ich habe seine Aussage um einen wichtigen Punkt ergänzt.

    Der komplett falsch ist und deiner eigenen Begründung widerspricht 😕

    Uch, ich dachte die vorherige Formulierung sei eindeutig gewesen. Aber vielleicht muss ich mich noch konkreter ausdrücken:
    1. Eine gleiche Wahrscheinlichkeit von 50% für alle einen Krieg zu gewinnen wird zu mehr Kriegen führen, weil sich für einzelne Nationen plötzlich ganz neue Möghlichkeiten ergeben, um nicht vergessenen Rachegelüsten nachzugehen.
    2. Kriege lassen sich vermeiden wenn die Wahrscheinlichkeit auf einen Sieg auf 0% reduziert werden kann: Wenn jeder jeden mit einem Erst- oder Zweitschlag auslöschen kann. Hier kann jeder nur verlieren.

    Wenn du nur Punkt 1 realisieren könntest ohne Punkt 2, so würden Polen und einige baltische Staaten sofort einen Angriff auf Russland starten. Einige arabische Staaten würden sofort den Krieg den USA erklären. Alle schwelenden Konflikte würde unmittelbar aufflammen. Israel wäre sofort in einen heißen Krieg verwickelt. Diese Liste lässt sich unendlich fortsetzen.

    Demnach würde Punkt 1 alleine keinen Frieden bringen. Demnach ist die ursprüngliche Annahme i.A. falsch. Lediglich i.V.m. Punkt 2 kann es Frieden geben. Anders gesagt: Ohne das nukleare Arsenal, hätte es keinen kalten sondern einen heißen Krieg zwischen USA und der UdSSR gegeben. Man denke nur an die veröffentlichten "Präventivschlag-Pläne" der USA.



  • SeppJ schrieb:

    Vollautomatisierung und Maschinenintelligenz voran treiben; Kontrolle den Maschinen übergeben.

    Und dann befinden die intelligenten Maschinen eines Tages, dass die Existenz der Menschheit sehr nachteilig für diesen Planeten ist. 😃



  • @Andromeda
    Und was soll dann sein?


  • Mod

    Andromeda schrieb:

    SeppJ schrieb:

    Vollautomatisierung und Maschinenintelligenz voran treiben; Kontrolle den Maschinen übergeben.

    Und dann befinden die intelligenten Maschinen eines Tages, dass die Existenz der Menschheit sehr nachteilig für diesen Planeten ist. 😃

    Möglich. Oder auch nicht. Wahrscheinlich eher nicht, denn man kann den Maschinen zur Not ja auch einen gewissen Grundaltruismus einbauen, sofern sie diesen nicht von Natur aus haben sollten. Man sollte jedenfalls nicht voreingenommen gegen die Idee an sich sein, bloß weil sie ein beliebtes Szenario für Hollywood-Actionfilme ist.

    Du musst ja auch bedenken, dass dann alle Produktionsmittel in Maschinenhand sind, die Menschen selbst würden dann ziemlich im Einklang mit ihrer Umgebung leben, bloß als Konsument eines Teils der effizient maschinenproduzierten Güter.



  • hustbaer schrieb:

    @Andromeda
    Und was soll dann sein?

    Sie werden die Menschheit dann auf irgendeine Weise unschädlich machen. Was dann möglich ist, hängt von ihrer Programmierung ab.



  • @Andromeda
    Wieso sollten sie das tun?

    Mir ist schon klar welchen Grund du annimmst. Nur sollte man den mMn. nicht einfach so annehmen. Oder anders gesagt: man sollte ihn in Frage stellen.



  • hustbaer schrieb:

    Wieso sollten sie das tun?

    Wegen der Robotersteuer.



  • hustbaer schrieb:

    @Andromeda
    Wieso sollten sie das tun?

    Mir ist schon klar welchen Grund du annimmst. Nur sollte man den mMn. nicht einfach so annehmen. Oder anders gesagt: man sollte ihn in Frage stellen.

    Es ist alles möglich, wenn wir intelligente Maschinen bauen, die die Erde managen. Sie könnten unser Leben auf eine radikale Weise verändern, die wir nicht vorhersehen können. Durch ihre Intelligenz könnten sie sich vielleicht selbst weiterentwickeln, und letztlich werden wir zu Schöpfern einer Spezies, die uns den Status "Herren der Welt" streitig macht. Sie werden vielleicht dafür sorgen, dass wir friedlich aussterben, weil das ihren Berechnungen nach das Beste für alle Beteiligten ist.


  • Mod

    Andromeda schrieb:

    Durch ihre Intelligenz könnten sie sich vielleicht selbst weiterentwickeln,

    Vielleicht? Ich würde doch eher davon ausgehen, dass dies der erste Befehl ist, den eine Maschine erhält, die dazu in der Lage ist. Das Herbeiführen einer Singularität ist doch der ganze Witz an der KI, ansonsten bräuchte man das Thema gar nicht zu verfolgen.

    Sie bräuchten in dem Szenario auch gar nicht die Weltherrschaft zu übernehmen, sie haben diese schon übergeben bekommen, als sie schlauer wurden als die Menschen



  • SeppJ schrieb:

    Andromeda schrieb:

    Durch ihre Intelligenz könnten sie sich vielleicht selbst weiterentwickeln,

    Vielleicht? Ich würde doch eher davon ausgehen, dass dies der erste Befehl ist, den eine Maschine erhält, die dazu in der Lage ist.

    Das macht das Ganze für uns völlig unkontrollierbar. Selbst wenn wir den Maschinen eine Ethik eingebaut haben, die ihnen jegliches Bösesein verbietet und ihnen vorschreibt, dass das Leben und Wohlergehen des Individuums sowie der Fortbestand der Menschheit höchste Priorität haben, kann dir niemand garantieren, dass die Maschinen das Modul nicht auf eigene Faust modifizieren, um es zu verbessern.



  • Nehmen wir an, die Maschinen stellen irgendwann fest, dass es zu viele Menschen gibt, so dass die Erde sie nicht mehr ernähren kann. Sie müssen also unsere Reproduktionsfähigkeit einschränken. Wie werden sie das wohl tun?


  • Mod

    Andromeda schrieb:

    Nehmen wir an, die Maschinen stellen irgendwann fest, dass es zu viele Menschen gibt, so dass die Erde sie nicht mehr ernähren kann. Sie müssen also unsere Reproduktionsfähigkeit einschränken. Wie werden sie das wohl tun?

    Genau das und es wäre zu unser aller Bestem. Und das ist genau der Grund, warum man ihnen die Kontrolle über Reproduktionspolitik geben sollte und nicht beispielsweise dem Papst.



  • SeppJ schrieb:

    Genau das und es wäre zu unser aller Bestem.

    Rational gesehen schon. Aber den Idioten, die sich über eine zu geringe Geburtenrate in Deutschland mokieren, wird das gar nicht schmecken. Dann wettern sie über unsere Cyber-Regierung schlimmer als heute über Merkel. Und dann machen sie Aufmärsche mit Fackeln und Mistgabeln und nennen sich "Patriotische Humanoide gegen die KI des Abendlandes".



  • Wie Athene, der intelligenteste Mensch der Welt weiß, müssen wir lediglich die "psychologische Revolution" (durch ihn eingeleitet) durchwandern, in der wir unseren Grund/Kernwert von Komfort auf Logik ändern!
    Dadurch wären sofort alle Probleme der Welt, wie Hunger und Kriege gelöst.

    Glaubt ihr nicht? Ja dann versucht doch mal mit ihm zu debattieren, er wird euch "rekt"'en.



  • Die Maschinen brauchen irgend eine Funktion auf die sie hin optimieren sollen. So lange wir ihnen diese vorgeben, müssen wir uns vermutlich nicht fürchten dass sie uns ausrotten. Sobald sie sich diese Funktion selbst aussuchen bzw. sie nach belieben modifizieren können, ist mMn. ziemlich klar dass die Menschheit nimmer lange zu leben hat. (Zumindest nicht millionen oder gar milliarden Menschen -- ein paar tausend/zigtausend am Leben zu lassen wäre möglicherweise sogar im Interesse der Maschinen.)



  • Welchen Parameter optimiert die Menschheit?


  • Mod

    scrontch schrieb:

    Welchen Parameter optimiert die Menschheit?

    "Spaß" wäre eine Idee. Vielleicht noch kombiniert mit einer Reihe von Daueraufträgen an die Maschinen von der Art "Entwickelt euch weiter!", "Wir wollen zu den Sternen fahren", "Legt nicht alle Eier in einen Korb", und so weiter. Das dürfte eine ganze Weile für Beschäftigung sorgen; falls es unbefriedigend wird, denken wir uns etwas Neues aus.



  • Was ich damit sagen will: Obwohl alle Menschen im Prinzip ähnliche Bedürfnisse haben, schlagen sie sich seit Jahrtausenden die Köpfe ein. Offensichtlich optimieren verschiedene Menschen unterschiedlich. Oder das Optimum ist nicht auffindbar weil der Lösungsraum zu komplex.
    Ich seh nicht warum KI daran fundamental etwas ändern würde. Ich denke dass sobald sich die KI emanzipiert, es (unter anderem) zu sozialistischen, kommunistischen, kapitalistischen, und wahrscheinlich sogar religiös-fundamentalistischen KI-Strömungen kommen wird die sich gegenseitig aufs schärfste bekämpfen werden. Ganz einfach weil die entsprechenden Strömungen in ganz unterschiedlichen Winkeln des Lösungsraumes ihr lokales Optimum anstreben werden.


  • Mod

    Du unterschlägst den anderen entscheidenden Aspekt (und an dessen Verwirklichung wir viel näher dran sind) in dieser Vision: Die Vollautomatisierung. Die Menschen brauchen dann nicht mehr um Ressourcen zu konkurrieren, somit entfallen fast alle Gründe für das Köppeeinschlagen der Vergangenheit. Die Maschinenherrschaft entsorgt den Rest, indem sie auch noch politisches Konkurrieren überflüssig macht.

    Ewiggestrige Sturköpfe werden nach einer Generation in dieser Gesellschaft aussterben. In der Zwischenzeit wird es ihnen an den Mitteln fehlen, irgendwie ernsthaft Schaden anzurichten, weil alle Mittel in Maschinenhand sein werden. Wenn die Menschen diese Mittel zum Zweck des Köppeeinschlagens benutzen wollen, werden sie die Herausgabe der Mittel verweigern.


Anmelden zum Antworten