ROOOOOOOOOOOFL?
-
... Sommerloch ... schaut euch nur den scheiß an, den der SPON so raushaut. Sind wohl so verzweifelt, dass nun jeder Spinner eine Titelgeschichte bekommt.
-
Vielleicht sollten diejenigen die hier meckern mal mehr als nur 2 Zeilen lesen.

Ich bin kein Jurist oder so, aber wenn lernende Software Fehler produziert dann sollte man sich mit der Schuldfrage schon mal beschäftigen und imho ist das nicht so einfach. Das ist ja auch kein Science Fiction oder so denn schon heute steckt in enorm vielen Systemen künstliche Intelligenz.
-
krabbels schrieb:
...aber wenn lernende Software Fehler produziert dann sollte man sich mit der Schuldfrage schon mal beschäftigen und imho ist das nicht so einfach.
Aber was willst Du tun, wenn Software schuldig ist. Bevor Software lernfähig wird, sollte man ihr zum Zwecke der Bestrafung vielleicht zuerst Leidensfähigkeit beibringen?
-
Matthias: Das geht. Die Strafe heißt Umprogrammierung.
Ist das zu abstrakt für dich? Dachtest du er will Computer bei Fehlern auspeitschen?

Es geht auch weniger um die Bestrafung als um die Frage in wie fern man den Programmierer für Fehler lernender Software verantwortlich machen kann. Und das ist imho nciht ganz einfach.
-
krabbels schrieb:
Es geht auch weniger um die Bestrafung als um die Frage in wie fern man den Programmierer für Fehler lernender Software verantwortlich machen kann. Und das ist imho nciht ganz einfach.
Hat die Software "falsch" gelernt, weil ein Fehler drin ist, dann ist der Programmierer verantwortlich. Hat die Software korrekte Schlüsse gezogen, aber wurde mit falschem Input gefüttert, dann nicht. Was soll daran nicht einfach sein? Niemand würde z.B. Stroustrup vor Gericht zerren, weil ein Atomkraftwerk wegen eines Buffer Overflows in einem C++ Programm explodiert ist.
-
Andromeda schrieb:
Hat die Software korrekte Schlüsse gezogen, aber wurde mit falschem Input gefüttert, dann nicht. Was soll daran nicht einfach sein?
Ja, wirklich sehr einfach. Schließlich bestrafen wir die Eltern eines Kriminellen auch wegen falscher "Inputs".
-
krabbels schrieb:
Schließlich bestrafen wir die Eltern eines Kriminellen auch wegen falscher "Inputs".
Das wäre mir neu. Bestraft werden kann nur jemand, der einen hohen Grad an Einflußnahme aufs Geschehen hat. Menschen sind ab einem gewissen Alter nicht mehr unter der Kontrolle der Eltern und daher kann man die Eltern auch nicht zur Rechenschaft ziehen.
-
Ich kann die abwertenden Kommentare - geschweige denn den Threadtitel - nicht nachvollziehen: Bionik, Sozionik und künstliche neuronale Netze, das sind alles keine Hirngespinste mehr. Jüngste Forschungsergebnisse jedenfalls lassen die Frage aufkommen, ob die Grenze zwischen Mensch und Maschine nicht schon verschwimmt. Sicherlich leben wir noch nicht in einem Zeitalter a la "Lt. Cmdr. Data" vom Raumschiff Enterprise, aber die Haftungsfragen zu klären, ist m.E. eine Notwendigkeit um Rechtssicherheit zu wahren.
-
Andromeda:
Und so ähnlich kann die Situation auch bei einem Computer sein. Ein Fehler des Programmierers oder schlechter Input lässt sich nicht nachvollziehen. Spätestens ab der Komplexität eines menschlichen Gehirns wird das so sein, wie du selber merkst. Faktisch werden solche Situation bestimmt schon viel eher auftreten. Der Computer hat selbstverantwortlich eine falsche Entscheidung getroffen. Dann kann man sich auch mal Gedanken über die rechtlichen Konsequenzen machen.
-
krabbels schrieb:
Der Computer hat selbstverantwortlich eine falsche Entscheidung getroffen. Dann kann man sich auch mal Gedanken über die rechtlichen Konsequenzen machen.
Kann man. Aber ich sehe darin keine besonderen Schwierigkeiten. Wenn etwas schief läuft, sind immer Menschen daran schuld, ob nun ein Konstruktionsfehler, falsche Bedienung, Unfall oder Sabotage zu einem Fehlverhalten führten. Das nachzuweisen wird auch weiterhin Pflicht bleiben. Egal wie "intelligent" eine Maschine auch sein wird - ein Strafrecht für Maschinen ist völlig absurd.
-
Im Prinzip verlangst Du doch von einem Konstrukteur nichts anderes als Hellseherei. Ich tu das nicht. Wenn der Konstrukteur nicht 100% vorhersagen kann, wie sich sein Konstrukt verhält, und das dem Anwender sagt, dann geht der Anwender dieses Risiko bewußt ein. Irgendwo muß man aus Praktikabilitätsgründen ein Risiko in Kauf nehmen - vermutlich könnte man sogar eine 100%-Vorhersage über das Verhalten machen, aber dann ist das Kosntrukt nicht mehr zu realisieren.
-
scrub schrieb:
Im Prinzip verlangst Du doch von einem Konstrukteur nichts anderes als Hellseherei. Ich tu das nicht. Wenn der Konstrukteur nicht 100% vorhersagen kann, wie sich sein Konstrukt verhält, und das dem Anwender sagt, dann geht der Anwender dieses Risiko bewußt ein. Irgendwo muß man aus Praktikabilitätsgründen ein Risiko in Kauf nehmen - vermutlich könnte man sogar eine 100%-Vorhersage über das Verhalten machen, aber dann ist das Kosntrukt nicht mehr zu realisieren.
und genau aus solchen gründen halte ich es für durchaus sinnvoll, sich um die strafrechtliche situation gedanken zu machen. die einzige frage, die dabei geklärt werden soll ist halt schlicht, wem schlussendlich die schuld an der fehlfunktion einer maschine mit pseudo-freiheitlichen entscheidungen treffen soll.
die "gefahr" dabei kann sehr schnell, sehr konkret werden. es gibt beispielsweise autonom agierende verteidigungssysteme, die mit scharfen waffen bestückt sind. wenn so ein ding aufgrund einer fehlentscheidung einen menschen erschiesst. oder ein autonom fahrendes fahrzeug, das völlig autonom gegen eine wand fährt und die insassen verletzt. wer trägt dann die verantwortung? der entwickler, weil er scheisse gebaut hat? oder der hersteller, weil er nicht gut genug geprüft hat?
alles was solche gesetze schaffen sollen, ist eine rechtliche grundlage für strafprozesse. und wenn es solche gesetze gibt - die sehr rigide sein müssen - dann helfen sie vielleicht auch, dass besonders viel sorgfalt bei der entwicklung von autonomen systemen aufgewandt wird.
-
toostuff schrieb:
Ich kann die abwertenden Kommentare - geschweige denn den Threadtitel - nicht nachvollziehen: Bionik, Sozionik und künstliche neuronale Netze, das sind alles keine Hirngespinste mehr. Jüngste Forschungsergebnisse jedenfalls lassen die Frage aufkommen, ob die Grenze zwischen Mensch und Maschine nicht schon verschwimmt.
Rofl, der war gut.

Das Feld der KI entwickelt sich deutlich langsamer weiter als früher und den Hype hast du um etwa 15 Jahre verpasst. Alle Grundlagen, die heute noch verwendet werden, wurden vor Jahrzehnten schon entwickelt. Als Beispiel sind künstliche neuronale Netze, Expertensystem und Fuzzy Logic zu nennen. Die aktuelle Arbeit auf diesem Gebiet besteht im wesentlichen darin, diese Methoden sinnvoll zu kombinieren. Wenn man sich ein bisschen mit der Thematik befasst hat, kennt man die Grebnzen solcher Systeme ganz genau. Von der Simulation von Emotionen mal ganz zu schweigen... "Jüngste Forschungsergebnisse", mhm.

-
Das ist doch Schwachsinnig. Angenommen ich betreibe einen Baukran und der Baukran stürzt ohne Zutun auf ein Haus. Dann hafte ich auch dafür. Betreibe ich nun einen "Intelligenten"-Baukran und der Baukran macht einen Fehler: Warum sollte ich nicht dafür genauso haften? Es ist ja nur eine Maschine, die ich betreibe. Ob ich am Ende direkt schuldig bin, ist dabei ja unerheblich. Als Betreiber haftet man.
Wenn wir natürlich irgendwann "humanoide" Roboter haben, kann man darüber diskutieren. Zur Zeit beschränkt sich die AI in Robotern ja eher auf Automatisierungsarbeiten und ähnliches.
Ergänzung zu Optimizer: http://en.wikipedia.org/wiki/AI_winter