Gesetz zum Schutz der Roboter
-
Verstehe nicht ganz, vielleicht Begriffe verwechselt.
Kannst Du bitte Beispiele für "schwache" und "starke" KIs nennen, damit der Unterschied klarer wird, oder auf einen entsprechenden Link hinweisen?
Ich nenne diese hier: http://www.coli.uni-saarland.de/~stwa/old/work/sem/KI/index.html
http://wwwcs.uni-paderborn.de/cs/ag-klbue/de/courses/ws03/logicrules03/ai-intro-ws03-slides.ps.nup.pdf
-
"einfache Regeln" war wohl eine etwas unglücklich gewählte Formulierung.
Am besten ich zitiere WikipediaIm Verständnis des Begriffs künstliche Intelligenz spiegelt sich oft die aus der Aufklärung stammende Vorstellung vom „Menschen als Maschine“ wieder, dessen Nachahmung sich die so genannte starke KI zum Ziel setzt: eine Intelligenz zu erschaffen, die wie der Mensch kreativ nachdenken und Probleme lösen kann und die sich durch eine Form von Bewusstsein beziehungsweise Selbstbewusstsein sowie Emotionen auszeichnet. Die Ziele der starken KI sind nach Jahrzehnten der Forschung weiterhin visionär.
Im Gegensatz zur starken KI geht es der schwachen KI darum, konkrete Anwendungsprobleme zu meistern. Insbesondere sind dabei solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Verständnis eine Form von „Intelligenz“ notwendig zu sein scheint. Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis von Intelligenz. Während die starke KI an ihrer philosophischen Fragestellung bis heute scheiterte, sind auf der Seite der schwachen KI in den letzten Jahren bedeutende Fortschritte erzielt worden.
Zu schwacher KI würden demnach der bereits erwähnte Schachroboter o.Ä. gehören.
Dagegen nähern sich neuronale Netzwerke eher der starken KI an.Erstere ist immer abhängig vom Schöpfer und (wie bereits von einigen in diesem Thread erwähnt) nur so intelligent wie der Programmierer.
-
Ja, nun ist es klar. Ich denke das Ziel sollte eine starke oder zumindest "halbstarke" KI sein. Die Ideen hierfür könnten bevorzugt aus dem biologischen Bereich kommen.
Hier findet man eine Strukturierung, die vielleicht weiter hilft:
http://www.biologie.de/biowiki/Künstliche_IntelligenzAlle 4 Arten der Intelligenz gehören m.E. nicht zur starken KI, sondern sind "nur" komplexe "Schnittstellen", damit die KI mit Menschen bzw. der Umwelt kommunizieren kann.
Der entscheidende Schritt ist die Lernfähigkeit. Wenn dies nicht gegeben ist, dann ist die KI schwach. Allerdings sind diese Schnittstellen sehr wichtig auf dem Weg zu einer starken KI, denn ohne passende Sensorik geht nichts Sensationelles. Das sieht man an einfachen Robotern, die sich noch fast hilflos bewegen, wenig Sensoren haben und mit den Gesamteindrücken eigentlich wenig anfangen können. Ihr Ziel ist es nicht umzufallen, nicht gegen etwas zu stoßen oder in kein Loch zu fallen.Ein wichtiger Punkt ist die richtige Wahl der Optimierungsstrategie, um eine möglichst beste Anpassung an äußere Anforderungen zu erreichen. Holland, Fogel und Goldberg schufen hier die Genetischen Algorithmen, Schwefel und Rechenberg die Evolutionsstrategischen Algorithmen, die man unter dem Begriff Evolutionäre Algorithmen zusammen fasst. Wichtige Anwendungen sind Optimierungen mit Nichtlinearitäten, Diskontinuitäten und Multimodalität.
Ansonsten stehen neuronale Netze, selbstorganisierende Karten (SOM) zur Verfügung.
Wie seht ihr das Ganze?
-
Was haltet ihr eigentlich von diesen sechsbeinigen Laufmaschinen wie z.B. Tarry II ( http://www.wissenschaft-online.de/sixcms/media.php/369/tarryiivonvorneaufgras_sm.jpg ) bzw. IIa der Uni Duisburg, die durch Training neuronaler Netzwerke ihr Laufverhalten optimieren? Oder der vom IDS des FZI Karlsruhe entwickelten sechsbeinigen Laufmaschine "Airbug"? Geht dies von der Bewegungsart in die richtige Richtung?
-
AlphaGFX schrieb:
Erstere ist immer abhängig vom Schöpfer und (wie bereits von einigen in diesem Thread erwähnt) nur so intelligent wie der Programmierer.
Ein guter Schachcomputer ist mit Sicherheit ein besserer Schachspieler als der Programmierer.
Ich sehe immer noch nicht den prinzipiellen Unterschied zwischen "klassischen" Algorithmen und simulierten neuronalen Netzen, den zu sehen scheinst. Da man beides programmieren kann, sind beides exakt beschreibbare Algorithmen. Sie operieren auf demselben Maschinenmodell: Eine Maschine, die ein neuronales Netz simuliert, kann nicht "mehr" als eine Maschine, auf der Mac OS X läuft. Und wie schon gesagt, ein neuronales Netz lässt sich auch von einem Menschen mit Papier und Bleistift simulieren. Wird das Papier dadurch potentiell intelligent?
-
Erhard Henkes schrieb:
Was haltet ihr eigentlich von diesen sechsbeinigen Laufmaschinen wie z.B. Tarry II ( http://www.wissenschaft-online.de/sixcms/media.php/369/tarryiivonvorneaufgras_sm.jpg ) bzw. IIa der Uni Duisburg, die durch Training neuronaler Netzwerke ihr Laufverhalten optimieren? Oder der vom IDS des FZI Karlsruhe entwickelten sechsbeinigen Laufmaschine "Airbug"? Geht dies von der Bewegungsart in die richtige Richtung?
soetwas gibt's hier auch:
http://www.youtube.com/watch?v=E-bDmMCwsigIch weiss ja nicht so recht.. ein Insekt ist mehrere tausend mal kleiner und deutlich schneller.
-
Ich weiss ja nicht so recht.. ein Insekt ist mehrere tausend mal kleiner und deutlich schneller.
Miniaturisierung ist machbar. Geschwindigkeit ist sicher ein Problem. Die Sechs-Füßler bewegen sich wirklich gähnend langsam.
-
soetwas gibt's hier auch:
http://www.youtube.com/watch?v=E-bDmMCwsigJa, ist richtig. Hier sieht man eine typische Zusammenstellung der 18-Servos-Hexapods: http://www.lynxmotion.com/Category.aspx?CategoryID=3
Hier gibst auch eine interessante Variante, allerdings nur 12 Servos, also nur 2 DoF:
http://www.parallax.com/detail.asp?product_id=910-30063Acht Beine überfordert die zentralen Systeme. Da muss man auf dezentralisierte, koordinierte Steuerung umsteigen. Interessantes Thema, hat aber zu wenig mit KI zu schaffen. Alles immer noch Basics, keine Opportunitäten.
-
Erhard Henkes schrieb:
Da Roboter eine zunehmende Spezies sind, denke ich, dass es Zeit ist die "Robotergesetze" zum Schutz der Roboter umzukehren. Was haltet ihr von folgendem Entwurf?
0. Ein Mensch darf die Existenz der Roboter nicht aktiv oder passiv gefährden.
1. Ein Mensch darf keinen Roboter beschädigen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
2. Ein Mensch muss den Befehlen der Roboter gehorchen - es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
3. Ein Mensch darf seine eigene Existenz schützen, solange dieses Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.warum nicht
0. Eine Intelligenz darf die Existenz einer Intelligenz nicht aktiv oder passiv gefährden.
1. Ein Intelligenz darf keinen Intelligenz beschädigen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
2. Ein Intelligenz muss den Befehlen einer Intelligenz gehorchen - es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
3. Ein Intelligenz darf seine eigene Existenz schützen, solange dieses Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.dem wird sicher keiner zustimmen.
wer will schon Befehlen gehorchen.
Asimov hat keine Intelligenz beschrieben, sondern Arbeitssklaven.
-
Ein guter Schachcomputer ist mit Sicherheit ein besserer Schachspieler als der >>Programmierer.
Ein besserer Schachspieler ja ... aber somit auch intelligenter? Der einzige Vorteil ist die enorme Geschwindigkeit, denn der Programmierer könnte genau das gleiche Ergebnis erzielen, wenn er denselben Algorithmus benutzen würde (den er ja selbst geschrieben hat).
Bei einem neuronalen Netzwerk wäre dies anders, denn in diesem Fall würde sich der Algorithmus den Gegebenheiten anpassen und verändern.
Wird das Papier dadurch potentiell intelligent?
Das Papier selbst nicht, jedoch kann man damit durchaus logische Ergebnisse erzielen, genau wie ein biologisches intelligentes Wesen. (vorrausgesetzt man hätte die Zeit für sowas^^)
-
AlphaGFX schrieb:
aber somit auch intelligenter?
Nochmal: Bei Maschinen bitte das Wort "Intelligenz" ebenso wie Formulierungen, die deren Fehlen ausdrücken, komplett vermeiden.
-
Mr. N schrieb:
AlphaGFX schrieb:
aber somit auch intelligenter?
Nochmal: Bei Maschinen bitte das Wort "Intelligenz" ebenso wie Formulierungen, die deren Fehlen ausdrücken, komplett vermeiden.
Oha, ist das jetzt per Definition so? Den § bitte. Ansonsten wird man wohl schon noch drüber diskutieren dürfen. Wobei man dann zunächst versuchen sollte sich auf einen Intelligenzbegriff zu einigen.
-
Jester schrieb:
Oha, ist das jetzt per Definition so? Den § bitte. Ansonsten wird man wohl schon noch drüber diskutieren dürfen. Wobei man dann zunächst versuchen sollte sich auf einen Intelligenzbegriff zu einigen.
Auf Seite 6 schrieb ich:
Mr. N schrieb:
Das Problem ist, dass es für "Intelligenz" keine saubere Definition gibt. Das Wort wurde die letzten 5000 Jahre eben nur für Menschen verwendet (und für besonders putzige Tiere, aber das ist dann ja nicht wirklich ernstzunehmen).
Es geht genau darum, dass es keine ordentliche Definition gibt. Ist bei menschlichen Wörtern eh selten. Tradition > Form(alität). Und es macht im Sinne der Tradition keinen Sinn, "Intelligenz" für Maschinen zu verwenden.
-
Der Begriff der menschlichen "Intelligenz" wie der des "Bewusstseins" ist nicht ausreichend klar definiert und auch nicht einfach messbar. Damit hat man bereits ein Problem. Vielleicht ist der Turingtest nach wie vor eine akzeptable Methode.
Auch zum Thema KI findet man folglich wenig Brauchbares:
http://de.wikipedia.org/wiki/Intelligenz
-
Wikipedia schrieb:
[...] Intelligenz noch nicht genau genug definiert wurde.
Ich bezweifle mal ganz dreist, dass das je geschehen wird.
-
Christoph schrieb:
Ich sehe immer noch nicht den prinzipiellen Unterschied zwischen "klassischen" Algorithmen und simulierten neuronalen Netzen, den zu sehen scheinst. Da man beides programmieren kann, sind beides exakt beschreibbare Algorithmen. Sie operieren auf demselben Maschinenmodell: Eine Maschine, die ein neuronales Netz simuliert, kann nicht "mehr" als eine Maschine, auf der Mac OS X läuft. Und wie schon gesagt, ein neuronales Netz lässt sich auch von einem Menschen mit Papier und Bleistift simulieren. Wird das Papier dadurch potentiell intelligent?
der unterschied ist wohl eher fließend, so ähnlich wie bei leitern und isolatoren. beide leiten zwar, aber der widerstand unterscheidet sich um größenordnungen, und die mechanismen sind auch z.t. andere. eine starke KI unterscheidet von der schwachen, dass sie
* zur zeit ein selbstzweck ist, wärend schwache KI auch technische anwendungen findet
* probleme unterschiedlicher arten eigenständig modellieren und lösungsansätze finden kannman könnte im sinne von erhard soweit gehen, die stärke der ki als maximal mögliches verhältnis von kognitiver leistung zum input aus der umwelt definieren. die kognitive leistung wäre mit dem problemlösungsvermögen verbunden, d.h. wieviele probleme kann dieses system lösen. somit wäre ein mensch, der sich augen und ohren zuhält eine starke ki, ein mensch in einem geschlossenem raum mit einem stapel papier und stiften eine stärkere. ein simples feed-forward-netz eine ziemlich schwache. interessanterweise hätten schwache ki hier den nachteil, dass sie die meisten problemstellungen (auf die sie nicht zugeschnitten sind) gar nicht "verstehen" (modellieren, was auch immer) können, und somit eine niedrige stärke bekämen.
die frage, was passiert, wenn man mein gehirn in scheiben schneidet, ordentlich modelliert und auf papier rechnen lässt ist gar nicht so uninteressant: vorausgesetzt, man gaukelt mir sensorischen input vor, müsste ich von innen weiterexistieren können. von außen wäre ich aber so gut wie tot, da meine reaktionszeit in jahrtausenden zu messen wäre. aus dieser überlegung würde ich dazu stehen, auch die vier bei wikipedia aufgeführten arten in die intelligenzdefinition aufzunehmen, da gerade die interaktion mit der umwelt die intelligenz zeigt und messbar macht. ein verstand-on-its-own, der aus dem nichts aufwacht und (sich) fragt "was bin ich?" wäre zwar die maxime der ki-forschung, wird aber vermutlich noch später als die simulation eines primatengehirns, wenn überhaupt, gelingen (mmn).
-
..
-
Dann gibt es die Entwicklung hin zu "Muskeln", die der fixen Motorsteuerung überlegen sind: http://www.youtube.com/watch?v=SgFiXj7wXGg&mode=related&search=
(Gemeinschaftsprojekt Festo mit EvoLogics GmbH und Fachgebiet Bionik und Evolutionstechnik TU Berlin)
http://www.festo.com/INetDomino/coorp_sites/de/583efcdc1d0abb5cc12571b9002d1ad5.htm
-
Ich denke, es ist an der Zeit, dass man hier ein Unter-Forum "Robotik und KI" eröffnet.
Übrigens, dass man "wehrlose" Roboter wirklich vor Lebewesen schützen muss, sieht man hier deutlich:
http://www.verrueckte-experimente.de/mov/dogattack_d.html
-
Hier habe ich noch eine Arbeit über einen Tetrapod gefunden, die konsequent ein Schichtenmodell einführt:
http://www.kreatives-chaos.com/artikel/ein-vierbeiniger-laufroboter
http://www.kreatives-chaos.com/file_download/7