Moralkriterien bei selbstfahrenden Autos



  • muemmel schrieb:

    Drachen muss man bekämpfen, solange es noch möglich ist!
    Gruß Mümmel

    Wir laufen eindeutig in Richtung zentrale Überwachung und Diktatur. Nur für die Alpha-Oligarchen gibt es dann noch etwas Freiheit, Luxus und freie(n) Fahrt/Flug. Alles klar absehbar. 😉



  • @muemmel
    Danke muemmel. Ich hatte schon die Befürchtung dass mehr Blut als Adrenalin in meinem Blutkreis wäre. Aber dank dieser verbalen Eruption des Focus ist dies nicht der Fall. 🤡



  • Hi,

    hier mal eine recht gründliche Betrachtung dieser ganzen Probleme in der NZZ.
    https://www.nzz.ch/meinung/bekennt-euch-zu-euren-zauberlehrlingen-ld.1321407
    Interessant auch, dass da einge Experten hinter vorgehaltener Hand nicht wie Merkel davon ausgehen dass man in 20 Jahren nur noch mit Sondererlaubnis selber fahren darf, sondern bis 2075 als Zeitrahmen für echte selbstfahrende Autos als denkbar ansehen.

    Gruß Mümmel



  • Hi,

    wie will man eigentlihc in Zukunft absichern, dass ein durch KI gesteuertes Auto nicht bei einem besonders rücksichtslosen Fahrer (egal ob beim von Hand steuern des Autos oder im sonstigen Leben) nicht entscheidet, dass dessen Tod für den Rest der Gesellschaft positiv wäre und den Wagen vor die Wand setzt?

    Gruß Mümmel



  • muemmel schrieb:

    wie will man eigentlihc in Zukunft absichern, dass ein durch KI gesteuertes Auto nicht bei einem besonders rücksichtslosen Fahrer (egal ob beim von Hand steuern des Autos oder im sonstigen Leben) nicht entscheidet, dass dessen Tod für den Rest der Gesellschaft positiv wäre und den Wagen vor die Wand setzt?

    Das wird doch durch das 1. Asimov’sche Gesetz garantiert, du Hirni!
    (Und ja, die Reihenfolge *ist* wichtig: https://xkcd.com/1613/)



  • Hi Scrontch,

    scrontch schrieb:

    Das wird doch durch das 1. Asimov’sche Gesetz garantiert, du Hirni!

    Nein, so einfach ist es nicht, denn ein Auto MUSS töten können. Im Straßenverkehr wird es immer wieder Fälle geben, wo es keinen Ausweg gibt, bei dem niemand umkommt. Das Auto muss dann den minimalsten Schaden ermitteln, und diesen gezielt herbeiführen, da ein Nichthandeln (gemäß Asimows 1. Robotergesetz) dann unter Umständen noch mehr Schaden anrichten würde (zum Beispiel, wenn ein großer Tankwagen die Wahl hat, einen alten Mann auf dem Bürgersteig oder einen entgegenkommenden Schulbuss umzufahren. Wenn er nicht reagiert nimmt er den Bus auf die Hörner undverursacht vielleicht 50 oder 100 Tote, die jeder 60-70 Lebensjahre verlieren. Der alte Mann wäre vieleicht nächste Woche von allein gestorben.)

    Gruß Mümmel



  • Mein Kommentar war nicht wirklich ernstgemeint.
    Deiner wohl auch nicht?
    Das Auto *muss* diesbezüglich überhaupt nichts können.
    Wieso sollten wir beim Auto *höhere* Moralkriterien anwenden als beim menschlichen Fahrer?
    Was steht denn im Strafgesetzbuch/StVO zum Fall in dem ich in den Schulbuss fahre statt auf den Opa?



  • Hi Scrontch,

    scrontch schrieb:

    Mein Kommentar war nicht wirklich ernstgemeint.
    Deiner wohl auch nicht?
    Das Auto *muss* diesbezüglich überhaupt nichts können.
    Wieso sollten wir beim Auto *höhere* Moralkriterien anwenden als beim menschlichen Fahrer?
    Was steht denn im Strafgesetzbuch/StVO zum Fall in dem ich in den Schulbuss fahre statt auf den Opa?

    Selbstfahrende Autos werden in solche oder ähnliche Situationen geraten und müssen dann einen Algorithmus haben, wie sie sich in dieser Frage verhalten.

    In Deutschland wird man sich das Maul darüber zerreißen, ohne wirklich was davon verstanden zu haben, und in Amerika wird man Musterprozesse und Sammelklagen mit zwölfstelligen Entschädigungsforderungen führen.
    Die Herstelle können vorläufig dabei nur verlieren.

    Gruß Mümmel



  • Nehmen wir mal einen Tesla X. Wie ist er programmiert?



  • Hi Erhard,

    Erhard Henkes schrieb:

    Nehmen wir mal einen Tesla X. Wie ist er programmiert?

    Um es mit Merkel zu beantworten: Nicht hilfreich.

    Musk wird sich da kaum zu sehr auf die Finger gucken lassen. Das kann man vermutlich nur per try and error rausbekommen.

    Gruß Mümmel



  • muemmel schrieb:

    Musk wird sich da kaum zu sehr auf die Finger gucken lassen. Das kann man vermutlich nur per try and error rausbekommen.

    Die Software wird doch ständig per Updates geändert. Das ist ein unbeherrschbares "moving target".



  • muemmel schrieb:

    Selbstfahrende Autos werden in solche oder ähnliche Situationen geraten und müssen dann einen Algorithmus haben, wie sie sich in dieser Frage verhalten.

    Nein, müssen sie nicht. Genauso wenig, wie ein Schachcomputer entscheiden muss, ob er verliert oder gewinnt, wenn ein verrückter Psychopath ein Menschenleben davon abhängig macht. Der Algorithmus löst ein Problem innerhalb einer Domäne, und diese Domäne beinhaltet nicht das (unlösbare) Problem, ob nun das eine oder andere Menschenleben moralisch vertretbarer umzubringen wäre.

    Diese Diskussion erübrigt sich aber im Angesicht der Tatsache, dass der Fahrer für das Verhalten seines Wagens nach wie vor verantwortlich ist (zu dem Ausmaß, zu dem er noch darüber verfügt). Wenn es zu einem Vorfall kommt, in dem ich eine Oma umgemäht habe, weil der Wagen durch den Algo so gesteuert wurde, dann muss ich das Verhalten meines Wagens vor Gericht rechtfertigen, als ob ich selbst am Steuer gesessen hätte. Eine Antwort wie "Der Wagen entschied darüber" würde bspw. gar nicht erst erklären, wie es überhaupt dazu kam, oder viel mehr wie ich es dazu kommen ließ. Der Autopilot ist nur eine Hilfe, genau wie Servo Lenkung oder andere Leckerlis. Ein Algo muss kein definiertes Verhalten haben, wenn ich ihm ein Problem zu präsentieren versuche, für das er nicht spezifiziert ist.



  • Hi Arcoth,

    Arcoth schrieb:

    muemmel schrieb:

    Selbstfahrende Autos werden in solche oder ähnliche Situationen geraten und müssen dann einen Algorithmus haben, wie sie sich in dieser Frage verhalten.

    Nein, müssen sie nicht. Genauso wenig, wie ein Schachcomputer entscheiden muss, ob er verliert oder gewinnt, wenn ein verrückter Psychopath ein Menschenleben davon abhängig macht. Der Algorithmus löst ein Problem innerhalb einer Domäne, und diese Domäne beinhaltet nicht das (unlösbare) Problem, ob nun das eine oder andere Menschenleben moralisch vertretbarer umzubringen wäre.

    Doch müssen sie, denn diese Situationen werden kommen, und nicht entscheiden kann im schlimmsten Falle heißen weder dem Opa noch dem Kind ausweichen, sondern beide totfahren.

    Diese Diskussion erübrigt sich aber im Angesicht der Tatsache, dass der Fahrer für das Verhalten seines Wagens nach wie vor verantwortlich ist (zu dem Ausmaß, zu dem er noch darüber verfügt). Wenn es zu einem Vorfall kommt, in dem ich eine Oma umgemäht habe, weil der Wagen durch den Algo so gesteuert wurde, dann muss ich das Verhalten meines Wagens vor Gericht rechtfertigen, als ob ich selbst am Steuer gesessen hätte. Eine Antwort wie "Der Wagen entschied darüber" würde bspw. gar nicht erst erklären, wie es überhaupt dazu kam, oder viel mehr wie ich es dazu kommen ließ. Der Autopilot ist nur eine Hilfe, genau wie Servo Lenkung oder andere Leckerlis. Ein Algo muss kein definiertes Verhalten haben, wenn ich ihm ein Problem zu präsentieren versuche, für das er nicht spezifiziert ist.

    Wenn man nicht bereits reaktionsbereit mit den Händen an der Lenkung dasitzt hat man gar keine Chance schnell genug zu reagieren. Und bei einer mehrstündigen Autofahrt wird es kaum einer fertig bringen, die ganze Zeit unbeschäftigt und trotzdem hellwach und reaktionsbereit am Steuer zu sitzen.
    Außerdem ist es die Frage, wie weit man überhaupt technisch dann noch in der Lage ist zu reagieren, oder ob da nicht von der Konstruktion her schon der Riegel vorgeschoben ist.
    Ich kann mich noch an den Versuch erinnern, einem Touran mal beim Einparken beim Lenken ins Steuer zu greifen. Erst passierte gar nichts und ich konnte das Steuerr (fast) nicht bewegen, und dann bei größerem Krafteinsatz mit einem Ruck gab die Automatik auf und ich konnte ohne jeden Widerstand lenken. Wenn das bei normaler Fahrgeschwindigkeit oder gar auf der Autobahn bei 130 pasiert hat man das Auto hinterher völlig verrissen und kann heilfroh sein, wenn man nicht einen anderen rammt oder sich überschlägt.

    Das beste Beispiel wie so was ausgeht ist doch, wenn einer bei normaler Landstraßenfahrt und tiefem Randstreifen mit den rechten Rädern unbemerkt von der Straße abkommt. Ein kurzer Schreck und dann wird von vielen panisch gegenglenkt und das Auto landet im Gegenverkehr. Ist laut Polizeiaussagen gar nicht so selten. Und das passiert Leuten die jeden Tag selber fahren so. Wie sollen das erst Leute schaffen, die seit Jahren nicht mehr selber ans Steuer gegriffen haben. Mach doch einfach mal den Test und lass Leute die seit langem nur noch mit Rückfahrtpiepsern, Rückfahrtkamera und diversen Einparkhilfen einparken ein ganz normales altes Auto ohne jede Hilfe längs in eine knappe Parklücke einparken. Aufgabe stellen, zugucken und ablachen.

    Außerdem werden wir spätestens ab 2030 laut Merkel nur noch mit Sondergenehmigung einen Wagen selbst lenken dürfen. Und wenns verboten wird, wird man auch Möglichkeiten finden, uns dartan zu hindern.

    Gruß Mümmel



  • Außerdem ist es die Frage, wie wiet man überhaupt technisch dann noch in der Lage ist zu reagieren, oder ob da nicht von der Konstruktion her schon der Riegel vorgeschoben ist.

    Dann liegt der Fehler bei der Konstruktion. Nicht bei unserer moralischen Auswertung der daraus resultierenden Fälle.

    Rückfahrtkamera und diversen Einparkhilfen einparken ein ganz normales altes Auto ohne jede Hilfe einparken. Aufgabe stellen, zugucken und ablachen.

    Du hast hier tatsächlich einen Punkt: Wir verlieren die Fähigkeit, schnell zu reagieren, und verlassen uns an irgendeinem Punkt gänzlich auf den Wagen. Ich behaupte dennoch, dass hier das Problem liegt. Ein Mensch, der einen Wagen nicht ohne technische Hilfe sachgemäß bedienen kann, gehört nicht hinter das Steuer eines selbstfahrenden Autos. Punkt. Wir sitzen in diesem Wagen doch als Überwacher des Systems, nicht als blinde Passagiere eines Geisterschiffs.



  • Hi Arcoth,

    Arcoth schrieb:

    Wir sitzen in diesem Wagen doch als Überwacher des Systems, nicht als blinde Passagiere eines Geisterschiffs.

    Aber genau das ist gewünscht, der passive Passagier, der dahin fährt, wo Technik und staatliche Administration ihn hin haben wollen.
    Und wenn dann wieder Politsause in Hamburg oder Berlin ist, dann werden sich auf einmal alle Systeme weigern dorthin zu fahren und schon brauch ich fast keine Polizisten zur Absicherung. In einem Auto mit Gas und Lenkung könnte mich wenn ich das wollte dagegen keiner daran hindern dahin zu fahren.

    Wieviel man von außen beeinflussen kann, hat man in Amerika gesehen, wo die Tesla-E-Autos auf der Flucht vor den Hurricans auf einmal viel größere Strecken am Stück fahren konnten, weil Elon Musk die dafür notwendigen Batteriekapazitäten aus der Ferne freigeschaltet hatte. Die mit der geringeren Reichweite sind zwar billiger, aber haben aus Vereifachungsgründen trotzdem den gleichen Akku drin. Nur eben elektronisch begrenzt auf eine geringere Kapazität. Und das lässt sich bei bedarf aus der Ferne beliebig beeinflussen.

    Gruß Mümmel



  • Wieviel man von außen beeinflussen kann, hat man in Amerika gesehen, wo die Tesla-E-Autos auf der Flucht vor den Hurricans auf einmal viel größere Strecken am Stück fahren konnten, weil Elon Musk die dafür notwendigen Batteriekapazitäten aus der Ferne freigeschaltet hatte. Die mit der geringeren Reichweite sind zwar billiger, aber haben aus Vereifachungsgründen trotzdem den gleichen Akku drin. Nur eben elektronisch begrenzt auf eine geringere Kapazität. Und das lässt sich bei bedarf aus der Ferne beliebig beeinflussen.

    Das ist echt der Hammer, dass ein "Big Brother", hier Tesla, ständig mein Auto verändert, das dann auch noch ständig behauptet mich nicht zu brauchen, weil es selbst alles besser kann. Die Entwicklung ist nicht aufhaltbar, also bereiten wir uns besser darauf vor. Deutschland sollte hier als Auto-Nation die Spitzenposition einnehmen. Das geht aber nicht mehr. Eher kauft Google den Daimler-Konzern auf.



  • Hi,

    wie wollen wir eigentlich selbstfahrende Autos zuverlässig machen, wenn wir selbst so einfache Sachen wie einen durch Autopilot gesteuerten Hubschrauber nicht sicher kriegen.
    Das Beispiel mit dem abgestürzten Tieger-Hubschrauber der wegen Autopilotenfehler abgestürzt ist, und das bei enem so teuren und so aufwendig egwarteten Teil, das ist doch das denkbar beste Argument gegen selbstfahrende Autos.

    Gruß Mümmel



  • Ist irgendein offizieller Bericht raus und öffentlich? Weil das würde mich interessieren.
    Wenn ich suche finde ich nur was wenig seriöses von Focus 🙄 wonach sich der Autopilot spontan abgeschaltet hätte als einzige Quelle.

    Aber man sitzt da in einem Dilemma.
    Linienpiloten zB wollen auf keinen Fall dass der Autopilot das Flugzeug weiter fliegt sobald auch nur die kleinste Störung vorliegt. Resultat ist dass der AP bewusst so programmiert ist dass er schnellstmöglich die Kontrolle abgibt.

    Tragischstes Beispiel AF447.
    Hier wäre mit nur etwas mehr KI wohl nichts passiert und 228 Menschenleben gerettet worden. Stattdessen hat es das System vorgezogen die simple Panne von einer menschlichen Crew komplett vermasseln zu lassen.

    Aber je später man die Kontrolle abgibt, desto höher ist eben die Wahrscheinlichkeit dass es der Mensch vermasselt. 😞



  • scrontch schrieb:

    Hier wäre mit nur etwas mehr KI wohl nichts passiert und 228 Menschenleben gerettet worden. Stattdessen hat es das System vorgezogen die simple Panne von einer menschlichen Crew komplett vermasseln zu lassen.

    Soweit ich sehen kann, konnte der Autopilot ohne den zugefrorenen Geschwindigkeitsmesser nicht mehr ordentlich operieren. Soll er sich eine Geschwindigkeit ausdenken?



  • Hi Arcoth,

    Arcoth schrieb:

    Soweit ich sehen kann, konnte der Autopilot ohne den zugefrorenen Geschwindigkeitsmesser nicht mehr ordentlich operieren. Soll er sich eine Geschwindigkeit ausdenken?

    Jedes Navi zeigt heute die Geschwindigkeit durch Berechnung über Satelitennavigation an. Zusätzlich lässt sich die Geschwindigkeit für einen gewissen Zeitraum aus der letzten zuverlässig gemessenen Geschwindigkeit und den danach erfolgten Beschleunigungen mitkoppeln. Diese Werte sollten zumindest als Kontrollwerte mitgeführt werden und bei auftretenden Abweichungen der Pilot frühzeitig informiert/gewarnt werden.

    Aber das erinnert mich an ein Gespräch mit einem Piloten von einer Bundeswehr-Transall vor ca 15 Jahren, wo er mir erzählte, das Transatlantikflüge von ihnen nur nachts bei klarem Himmel vorgenommen werden können, damit der Navigator oben aus der Navigationskuppel mit dem Sextanten nach den Sternen den Standort bestimmen kann.

    Gruß Mümmel


Anmelden zum Antworten