Moralkriterien bei selbstfahrenden Autos



  • Mein Kommentar war nicht wirklich ernstgemeint.
    Deiner wohl auch nicht?
    Das Auto *muss* diesbezüglich überhaupt nichts können.
    Wieso sollten wir beim Auto *höhere* Moralkriterien anwenden als beim menschlichen Fahrer?
    Was steht denn im Strafgesetzbuch/StVO zum Fall in dem ich in den Schulbuss fahre statt auf den Opa?



  • Hi Scrontch,

    scrontch schrieb:

    Mein Kommentar war nicht wirklich ernstgemeint.
    Deiner wohl auch nicht?
    Das Auto *muss* diesbezüglich überhaupt nichts können.
    Wieso sollten wir beim Auto *höhere* Moralkriterien anwenden als beim menschlichen Fahrer?
    Was steht denn im Strafgesetzbuch/StVO zum Fall in dem ich in den Schulbuss fahre statt auf den Opa?

    Selbstfahrende Autos werden in solche oder ähnliche Situationen geraten und müssen dann einen Algorithmus haben, wie sie sich in dieser Frage verhalten.

    In Deutschland wird man sich das Maul darüber zerreißen, ohne wirklich was davon verstanden zu haben, und in Amerika wird man Musterprozesse und Sammelklagen mit zwölfstelligen Entschädigungsforderungen führen.
    Die Herstelle können vorläufig dabei nur verlieren.

    Gruß Mümmel



  • Nehmen wir mal einen Tesla X. Wie ist er programmiert?



  • Hi Erhard,

    Erhard Henkes schrieb:

    Nehmen wir mal einen Tesla X. Wie ist er programmiert?

    Um es mit Merkel zu beantworten: Nicht hilfreich.

    Musk wird sich da kaum zu sehr auf die Finger gucken lassen. Das kann man vermutlich nur per try and error rausbekommen.

    Gruß Mümmel



  • muemmel schrieb:

    Musk wird sich da kaum zu sehr auf die Finger gucken lassen. Das kann man vermutlich nur per try and error rausbekommen.

    Die Software wird doch ständig per Updates geändert. Das ist ein unbeherrschbares "moving target".



  • muemmel schrieb:

    Selbstfahrende Autos werden in solche oder ähnliche Situationen geraten und müssen dann einen Algorithmus haben, wie sie sich in dieser Frage verhalten.

    Nein, müssen sie nicht. Genauso wenig, wie ein Schachcomputer entscheiden muss, ob er verliert oder gewinnt, wenn ein verrückter Psychopath ein Menschenleben davon abhängig macht. Der Algorithmus löst ein Problem innerhalb einer Domäne, und diese Domäne beinhaltet nicht das (unlösbare) Problem, ob nun das eine oder andere Menschenleben moralisch vertretbarer umzubringen wäre.

    Diese Diskussion erübrigt sich aber im Angesicht der Tatsache, dass der Fahrer für das Verhalten seines Wagens nach wie vor verantwortlich ist (zu dem Ausmaß, zu dem er noch darüber verfügt). Wenn es zu einem Vorfall kommt, in dem ich eine Oma umgemäht habe, weil der Wagen durch den Algo so gesteuert wurde, dann muss ich das Verhalten meines Wagens vor Gericht rechtfertigen, als ob ich selbst am Steuer gesessen hätte. Eine Antwort wie "Der Wagen entschied darüber" würde bspw. gar nicht erst erklären, wie es überhaupt dazu kam, oder viel mehr wie ich es dazu kommen ließ. Der Autopilot ist nur eine Hilfe, genau wie Servo Lenkung oder andere Leckerlis. Ein Algo muss kein definiertes Verhalten haben, wenn ich ihm ein Problem zu präsentieren versuche, für das er nicht spezifiziert ist.



  • Hi Arcoth,

    Arcoth schrieb:

    muemmel schrieb:

    Selbstfahrende Autos werden in solche oder ähnliche Situationen geraten und müssen dann einen Algorithmus haben, wie sie sich in dieser Frage verhalten.

    Nein, müssen sie nicht. Genauso wenig, wie ein Schachcomputer entscheiden muss, ob er verliert oder gewinnt, wenn ein verrückter Psychopath ein Menschenleben davon abhängig macht. Der Algorithmus löst ein Problem innerhalb einer Domäne, und diese Domäne beinhaltet nicht das (unlösbare) Problem, ob nun das eine oder andere Menschenleben moralisch vertretbarer umzubringen wäre.

    Doch müssen sie, denn diese Situationen werden kommen, und nicht entscheiden kann im schlimmsten Falle heißen weder dem Opa noch dem Kind ausweichen, sondern beide totfahren.

    Diese Diskussion erübrigt sich aber im Angesicht der Tatsache, dass der Fahrer für das Verhalten seines Wagens nach wie vor verantwortlich ist (zu dem Ausmaß, zu dem er noch darüber verfügt). Wenn es zu einem Vorfall kommt, in dem ich eine Oma umgemäht habe, weil der Wagen durch den Algo so gesteuert wurde, dann muss ich das Verhalten meines Wagens vor Gericht rechtfertigen, als ob ich selbst am Steuer gesessen hätte. Eine Antwort wie "Der Wagen entschied darüber" würde bspw. gar nicht erst erklären, wie es überhaupt dazu kam, oder viel mehr wie ich es dazu kommen ließ. Der Autopilot ist nur eine Hilfe, genau wie Servo Lenkung oder andere Leckerlis. Ein Algo muss kein definiertes Verhalten haben, wenn ich ihm ein Problem zu präsentieren versuche, für das er nicht spezifiziert ist.

    Wenn man nicht bereits reaktionsbereit mit den Händen an der Lenkung dasitzt hat man gar keine Chance schnell genug zu reagieren. Und bei einer mehrstündigen Autofahrt wird es kaum einer fertig bringen, die ganze Zeit unbeschäftigt und trotzdem hellwach und reaktionsbereit am Steuer zu sitzen.
    Außerdem ist es die Frage, wie weit man überhaupt technisch dann noch in der Lage ist zu reagieren, oder ob da nicht von der Konstruktion her schon der Riegel vorgeschoben ist.
    Ich kann mich noch an den Versuch erinnern, einem Touran mal beim Einparken beim Lenken ins Steuer zu greifen. Erst passierte gar nichts und ich konnte das Steuerr (fast) nicht bewegen, und dann bei größerem Krafteinsatz mit einem Ruck gab die Automatik auf und ich konnte ohne jeden Widerstand lenken. Wenn das bei normaler Fahrgeschwindigkeit oder gar auf der Autobahn bei 130 pasiert hat man das Auto hinterher völlig verrissen und kann heilfroh sein, wenn man nicht einen anderen rammt oder sich überschlägt.

    Das beste Beispiel wie so was ausgeht ist doch, wenn einer bei normaler Landstraßenfahrt und tiefem Randstreifen mit den rechten Rädern unbemerkt von der Straße abkommt. Ein kurzer Schreck und dann wird von vielen panisch gegenglenkt und das Auto landet im Gegenverkehr. Ist laut Polizeiaussagen gar nicht so selten. Und das passiert Leuten die jeden Tag selber fahren so. Wie sollen das erst Leute schaffen, die seit Jahren nicht mehr selber ans Steuer gegriffen haben. Mach doch einfach mal den Test und lass Leute die seit langem nur noch mit Rückfahrtpiepsern, Rückfahrtkamera und diversen Einparkhilfen einparken ein ganz normales altes Auto ohne jede Hilfe längs in eine knappe Parklücke einparken. Aufgabe stellen, zugucken und ablachen.

    Außerdem werden wir spätestens ab 2030 laut Merkel nur noch mit Sondergenehmigung einen Wagen selbst lenken dürfen. Und wenns verboten wird, wird man auch Möglichkeiten finden, uns dartan zu hindern.

    Gruß Mümmel



  • Außerdem ist es die Frage, wie wiet man überhaupt technisch dann noch in der Lage ist zu reagieren, oder ob da nicht von der Konstruktion her schon der Riegel vorgeschoben ist.

    Dann liegt der Fehler bei der Konstruktion. Nicht bei unserer moralischen Auswertung der daraus resultierenden Fälle.

    Rückfahrtkamera und diversen Einparkhilfen einparken ein ganz normales altes Auto ohne jede Hilfe einparken. Aufgabe stellen, zugucken und ablachen.

    Du hast hier tatsächlich einen Punkt: Wir verlieren die Fähigkeit, schnell zu reagieren, und verlassen uns an irgendeinem Punkt gänzlich auf den Wagen. Ich behaupte dennoch, dass hier das Problem liegt. Ein Mensch, der einen Wagen nicht ohne technische Hilfe sachgemäß bedienen kann, gehört nicht hinter das Steuer eines selbstfahrenden Autos. Punkt. Wir sitzen in diesem Wagen doch als Überwacher des Systems, nicht als blinde Passagiere eines Geisterschiffs.



  • Hi Arcoth,

    Arcoth schrieb:

    Wir sitzen in diesem Wagen doch als Überwacher des Systems, nicht als blinde Passagiere eines Geisterschiffs.

    Aber genau das ist gewünscht, der passive Passagier, der dahin fährt, wo Technik und staatliche Administration ihn hin haben wollen.
    Und wenn dann wieder Politsause in Hamburg oder Berlin ist, dann werden sich auf einmal alle Systeme weigern dorthin zu fahren und schon brauch ich fast keine Polizisten zur Absicherung. In einem Auto mit Gas und Lenkung könnte mich wenn ich das wollte dagegen keiner daran hindern dahin zu fahren.

    Wieviel man von außen beeinflussen kann, hat man in Amerika gesehen, wo die Tesla-E-Autos auf der Flucht vor den Hurricans auf einmal viel größere Strecken am Stück fahren konnten, weil Elon Musk die dafür notwendigen Batteriekapazitäten aus der Ferne freigeschaltet hatte. Die mit der geringeren Reichweite sind zwar billiger, aber haben aus Vereifachungsgründen trotzdem den gleichen Akku drin. Nur eben elektronisch begrenzt auf eine geringere Kapazität. Und das lässt sich bei bedarf aus der Ferne beliebig beeinflussen.

    Gruß Mümmel



  • Wieviel man von außen beeinflussen kann, hat man in Amerika gesehen, wo die Tesla-E-Autos auf der Flucht vor den Hurricans auf einmal viel größere Strecken am Stück fahren konnten, weil Elon Musk die dafür notwendigen Batteriekapazitäten aus der Ferne freigeschaltet hatte. Die mit der geringeren Reichweite sind zwar billiger, aber haben aus Vereifachungsgründen trotzdem den gleichen Akku drin. Nur eben elektronisch begrenzt auf eine geringere Kapazität. Und das lässt sich bei bedarf aus der Ferne beliebig beeinflussen.

    Das ist echt der Hammer, dass ein "Big Brother", hier Tesla, ständig mein Auto verändert, das dann auch noch ständig behauptet mich nicht zu brauchen, weil es selbst alles besser kann. Die Entwicklung ist nicht aufhaltbar, also bereiten wir uns besser darauf vor. Deutschland sollte hier als Auto-Nation die Spitzenposition einnehmen. Das geht aber nicht mehr. Eher kauft Google den Daimler-Konzern auf.



  • Hi,

    wie wollen wir eigentlich selbstfahrende Autos zuverlässig machen, wenn wir selbst so einfache Sachen wie einen durch Autopilot gesteuerten Hubschrauber nicht sicher kriegen.
    Das Beispiel mit dem abgestürzten Tieger-Hubschrauber der wegen Autopilotenfehler abgestürzt ist, und das bei enem so teuren und so aufwendig egwarteten Teil, das ist doch das denkbar beste Argument gegen selbstfahrende Autos.

    Gruß Mümmel



  • Ist irgendein offizieller Bericht raus und öffentlich? Weil das würde mich interessieren.
    Wenn ich suche finde ich nur was wenig seriöses von Focus 🙄 wonach sich der Autopilot spontan abgeschaltet hätte als einzige Quelle.

    Aber man sitzt da in einem Dilemma.
    Linienpiloten zB wollen auf keinen Fall dass der Autopilot das Flugzeug weiter fliegt sobald auch nur die kleinste Störung vorliegt. Resultat ist dass der AP bewusst so programmiert ist dass er schnellstmöglich die Kontrolle abgibt.

    Tragischstes Beispiel AF447.
    Hier wäre mit nur etwas mehr KI wohl nichts passiert und 228 Menschenleben gerettet worden. Stattdessen hat es das System vorgezogen die simple Panne von einer menschlichen Crew komplett vermasseln zu lassen.

    Aber je später man die Kontrolle abgibt, desto höher ist eben die Wahrscheinlichkeit dass es der Mensch vermasselt. 😞



  • scrontch schrieb:

    Hier wäre mit nur etwas mehr KI wohl nichts passiert und 228 Menschenleben gerettet worden. Stattdessen hat es das System vorgezogen die simple Panne von einer menschlichen Crew komplett vermasseln zu lassen.

    Soweit ich sehen kann, konnte der Autopilot ohne den zugefrorenen Geschwindigkeitsmesser nicht mehr ordentlich operieren. Soll er sich eine Geschwindigkeit ausdenken?



  • Hi Arcoth,

    Arcoth schrieb:

    Soweit ich sehen kann, konnte der Autopilot ohne den zugefrorenen Geschwindigkeitsmesser nicht mehr ordentlich operieren. Soll er sich eine Geschwindigkeit ausdenken?

    Jedes Navi zeigt heute die Geschwindigkeit durch Berechnung über Satelitennavigation an. Zusätzlich lässt sich die Geschwindigkeit für einen gewissen Zeitraum aus der letzten zuverlässig gemessenen Geschwindigkeit und den danach erfolgten Beschleunigungen mitkoppeln. Diese Werte sollten zumindest als Kontrollwerte mitgeführt werden und bei auftretenden Abweichungen der Pilot frühzeitig informiert/gewarnt werden.

    Aber das erinnert mich an ein Gespräch mit einem Piloten von einer Bundeswehr-Transall vor ca 15 Jahren, wo er mir erzählte, das Transatlantikflüge von ihnen nur nachts bei klarem Himmel vorgenommen werden können, damit der Navigator oben aus der Navigationskuppel mit dem Sextanten nach den Sternen den Standort bestimmen kann.

    Gruß Mümmel



  • Arcoth schrieb:

    scrontch schrieb:

    Hier wäre mit nur etwas mehr KI wohl nichts passiert und 228 Menschenleben gerettet worden. Stattdessen hat es das System vorgezogen die simple Panne von einer menschlichen Crew komplett vermasseln zu lassen.

    Soweit ich sehen kann, konnte der Autopilot ohne den zugefrorenen Geschwindigkeitsmesser nicht mehr ordentlich operieren. Soll er sich eine Geschwindigkeit ausdenken?

    Eine Pitot-Sonde war zugefroren.
    Es gibt aber 3 davon. Und dann noch GPS.
    Geschwindigkeitssensoren waren also noch genügend vorhanden.
    Wenn einer von 4 spinnt ist es eigentlich einfach den Spinner zu identifizieren.



  • Hi,

    hier noch ein rech objektiver Beitrag zum Thema bei Krone.at:
    http://www.krone.at/1674664

    Gruß Mümmel



  • http://www.handelsblatt.com/unternehmen/industrie/technik-hinter-dem-uber-unfall-das-sind-die-fuenf-stufen-des-autonomen-fahrens/21100770.html?nlayer=Newsticker_1985586
    Videos ... Echt erstaunlich, was da so veröffentlicht wird. Schaut euch das Video vom Fahrer/Fahrerin an (interior). Da sieht man, dass der menschliche Fahrer wenig Sicherheit bietet. Wir benötigen also Level 5, was es momentan nicht gibt, und die Straße dort war absolut übersichtlich.



  • Hi,

    Wenn die Computer so weit sind, dass sie einen volltrunkenen deutsch sprechenden Ausländer mit Hasenscharte ohne einlernen fehlerfrei verstehen, dann werden sie auch in der Lage sein allein ordentlich Auto zu fahren.

    Gruß Mümmel



  • Hi,

    Im sonnigen Kalifornien mag das mit den sebstfahrenden Autos ja gehen, aber was ist wenn 20 Zentimeter Schneematsch auf der Straße liegen? Da weiß jeder menschliche Fahrer problemlos wo er langfahren muss. Ich glaube nicht, dass die Intelligenz der Autos das in den nächsten 10 Jahren hinbekommt.
    Auch mit den Vowarnzeiten wann der Fahrer eingreifen muss ist das so eine Sache. Es kann immer von jetzt auf gleich ein Eingriff nötig werden. Hab selbst schon erlebt wie auf der Autobahn Kinder hinter einem Busch hervorgerannt kamen. War zum Glück ein Standstreifen da, so dass ich noch vorbei gekommen bin.
    Assistenzsysteme sollten nach äußeren Gefahren Ausschau halten, aber auch darauf achten das der Fahrer aufpasst und sich nicht wie in LKWs schon vorgekommen während der Fahrt die Fußnägel schneidet oder sonst wie abgelenkt ist. Das Uber-Auto hätte in dem Moment wo der Fahrer nach unten sieht sofort die Weiterfahrt ablehnen müssen. Nur dann kann eine teilautomatisierte Fahrt gelingen, wenn die KI sowohl auf die äußeren Bedingungen als auch auf den Fahrer achtet.

    Wie weit es bis dahin noch ist sieht man an den Android-Tippsysteme. Ich gebe KI ein und bekomme KINDERBUMSPUPPEN angeboten. Und das in einem Beitrag über Autos und Computer. Will ich einem solchen Hersteller wirklich meine Sicherheit in einem Auto ohne eigene Einflussmöglichkeit anvertrauen? Nur weil vielleicht im Moment viele Nutzer nach derartigen Puppen suchen bekomme ich die auch angeboten. Wenn dann in dem Moment viele im Auto wenden beschließt mein Wagen dann auf der Autobahn auch zu wenden und ich werde zum Geisterfahrer...

    Gruß Mümmel



  • Naja, der Uber-Fall war ja mehr eine Mischung aus Versagen der KI und menschlichem versagen.

    Als Testfahrer sollte man auch ein wenig die Straße im Blick haben und nicht irgendwas anderes machen. - Man ist ja schließlich Kontrollinstanz falls das Auto einen Fehler macht.

    Insofern trägt für mich die Fahrerin die Hauptschuld. Denn es war keine "Wir zeigen wies geht fahrt." sondern eben eine Testfahrt um die Zuverlässigkeit der KI zu prüfen.


Anmelden zum Antworten