Kann man mit Microsofts Kinect auch Motion Capturing betreiben?
-
rapso schrieb:
Echt putzig, das ganze nur um zu fragen ob man mit einem kameraset und seiner eigenen software motioncapturing machen koennte. yet another day, thx

kein normales kameraset: eines, welches zu den farbwerten eines pixels auch noch dessen tiefe mitliefert, und damit fuer die sichtbaren flaechen des objektes die 3te dimension kennt.
ich denke fuer die erkennung von bewegungen ist das der entscheidende vorteil, den eine herkoemmliche webcam nicht bietet.
-
loki1985 schrieb:
rapso schrieb:
Echt putzig, das ganze nur um zu fragen ob man mit einem kameraset und seiner eigenen software motioncapturing machen koennte. yet another day, thx

kein normales kameraset: eines, welches zu den farbwerten eines pixels auch noch dessen tiefe mitliefert, und damit fuer die sichtbaren flaechen des objektes die 3te dimension kennt.
ich denke fuer die erkennung von bewegungen ist das der entscheidende vorteil, den eine herkoemmliche webcam nicht bietet.
wie ich schon oft genug sagte, das macht die software, nicht die camera.
-
raps schrieb:
loki1985 schrieb:
rapso schrieb:
Echt putzig, das ganze nur um zu fragen ob man mit einem kameraset und seiner eigenen software motioncapturing machen koennte. yet another day, thx

kein normales kameraset: eines, welches zu den farbwerten eines pixels auch noch dessen tiefe mitliefert, und damit fuer die sichtbaren flaechen des objektes die 3te dimension kennt.
ich denke fuer die erkennung von bewegungen ist das der entscheidende vorteil, den eine herkoemmliche webcam nicht bietet.
wie ich schon oft genug sagte, das macht die software, nicht die camera.
Nein, da ist neben der normalen Kamera noch ein Tiefensensor, und der muss schließlich seine Daten übermitteln (die dann von alternativer Software ausgewertet werden könnte).
http://www.konsolen-world.de/newsskript/article.php?article_file=1277889630.txt&printview=1
Wie sollten auch zuverlässige Tiefeninformationen aus einem stinknormalen 640*480-Webcam-Bild entstehen? Kann ich mir zumindest nur schwer vorstellen.
-
Man koennte zwei Webcams benutzen.
-
Hier wird's ein bisschen erklärt:
http://www.t3.com/feature/xbox-kinect-how-the-movement-tracking-works
Die Daten von der Webcam abzugreifen, würde also reichen, um Bewegung auch in der Tiefe zu bekommen.
EDIT: Also auf der Seite hört es sich so an, als würde Kinect die ganze Auswertung machen und dann tatsächlich die fertig analysierten Bewegungsdaten weiterschicken. Der Artikel ist leider schon ein paar Monate alt. Rapso meinte ja, gelesen zu haben, dass die HW-Analyse aus Kostengründen auf die XBox abgewälzt wurde...
-
Das hat mal die Kamera gemacht als Microsoft die Firma kaufte, aber aus Kostengründen wurde das alles auf die Xbox verschoben.
...and that the processing chip in the original Natal design was removed in favour of a software layer implemented on the 360 itself,...
In that story, Xbox's technological frontiersman Alex Kipman pegged the load at 10 to 15 per cent depending on the tasks being asked of the various libraries. ...Praktisch 1 von 6 Hyperthreads der wegfällt.
Wie das funktioniert ist einfach:
Es gibt eine Infrarotkamera mittig und links und rechts infrarot Lightquellen. Die Lichtquellen blinken abwechselnd mit der halben Frequenz in der die Kamera aufnimmt.
Die Software kann nun von jeweils zwei Bildern zwei Informationen rausfiltern:
1. Anhand des Schattenrisses der beiden Bilder die genaue Konktur von Objekten und ihre grobe Tiefe.
2. Anhand der Schattierungen auf den Objekten die mit 16Bit Genauigkeit aufgenommen wird, die sehr genaue Tiefe innerhalb der Objekte bestimmen. - Eine Kamera und zwei Lightquellen sind genau so gut wie zwei Kameras (und eine Lightquelle).Das ist der einfache Teil gewesen.
Jetzt muss anhand dieser Tiefendaten ein skelet positioniert werden, das ist das eigentlich schwierige und es braucht eigentlich auch unmengen Rechenzeit. Microsoft hat bei der Echtzeitanwendung den Vorteil, dass sie die Pose des vorherigen Skelettes haben und eine Genauigkeit von mehreren cm ausreicht.Die Kameras an sich sind nicht sonderlich toll, 30Hz SVGA, die PS2 EyeToy Kamera ist besser. Die infrarot Kamera ist vorhanden damit die nutzer nicht verschreckt werden, wenn Lichter im sichtbaren Bereich blinken.
Das kann man selber nachbauen. Eine rote und eine grüne Brine 1m links und rechts von einer Webcam aufstellen, den Raum abdunkeln und aufnehmen.
Anschliessend kann sich die Software ordentlich Zeit lassen, um mit bester Qualität die Motion-Capture Daten zu extrahieren.
Aufgrund von konstanten Lichtbedingungen habt ihr dabei effektiv die doppelte Genauigkeit und wenn ihr eure iPhone4 Kamera benutzt, dann sogar nochmals die vierfache.Das ist nichts Fantastisches, es gibt genug Firmen die sowas umsetzen, man muss nur deren Software kaufen

Das funktioniert zu einem gewissen Grad auch mit nur einer Kamera:
http://www.hartware.de/news_49817.htmlAlles nur Software.
-
diese sogenannte "kamera" misst die lauflaenge der IR-strahlen. d.h. misst wie lange die strahlen brauchen bis sie wieder zurueckkommen. dadurch erkennt sie wie weit ein objekt entfernt ist, hat also die echten tiefendaten.
//EDIT: moeglich das ich mich irre, ich weiss nur dass die frueheren versionen das gemacht haben, bevor microsoft die firma gekauft hat. moeglich das es inzwischen anders ist.
-
loki1985 schrieb:
diese sogenannte "kamera" misst die lauflaenge der IR-strahlen. d.h. misst wie lange die strahlen brauchen bis sie wieder zurueckkommen.
dir ist klar dass die laufwege von (infrarot)licht in einem raum weit unter dem sind was die ausloesezeit eines elektrischen sensors ist?
dadurch erkennt sie wie weit ein objekt entfernt ist, hat also die echten tiefendaten.
//EDIT: moeglich das ich mich irre, ich weiss nur dass die frueheren versionen das gemacht haben, bevor microsoft die firma gekauft hat. moeglich das es inzwischen anders ist.Wie derwisser schon (auf komplizierte weise) sagte, erkennt man die tiefe aufgrund der parallax verschiebung. ein objekt was unendlich weit weg ist wird von beinden lichtquellen gleichmaessig ausgeleuchtet. je naeher ein objekt ist, desto groesser die parallax verschiebung der ausleuchtung.
normalerweise macht man das mit zwei kameras
http://www.google.de/search?q=parallax+depth+estimationaber falls eine kamera zwei bilder mit lichtquellen macht die von zwei seiten kommen, kannst du genau so die tiefe ausrechnen.
und wie der wisser schon sagte, das ist alte supper und der einfache teil der software. das gibt es schon lange.
ein skelet auf diese informationen anzupassen ist das schwere.was der wisser wohl noch nicht weiss ist dass die tiefeninformation nicht das wichtigste bei der sache ist.

-
rapso schrieb:
dir ist klar dass die laufwege von (infrarot)licht in einem raum weit unter dem sind was die ausloesezeit eines elektrischen sensors ist?
wie funktioniert dann das hier:
http://en.wikipedia.org/wiki/Time-of-flight_camera?
-
loki1985 schrieb:
rapso schrieb:
dir ist klar dass die laufwege von (infrarot)licht in einem raum weit unter dem sind was die ausloesezeit eines elektrischen sensors ist?
wie funktioniert dann das hier:
http://en.wikipedia.org/wiki/Time-of-flight_camera?
steht da:
http://www.canesta.com/assets/pdf/technicalpapers/Canesta101.pdf
-
loki1985 schrieb:
rapso schrieb:
dir ist klar dass die laufwege von (infrarot)licht in einem raum weit unter dem sind was die ausloesezeit eines elektrischen sensors ist?
wie funktioniert dann das hier:
http://en.wikipedia.org/wiki/Time-of-flight_camera?
mit spezialsensoren, steht doch auf der seite. wenn ich nach produkten suche finde ich entsprechend
"Prices can be as low as €600 for a 64x48 pixel camera"du koenntest recht haben
Or could it hail from fellow Seattle powerhouse, Microsoft, who not long ago purchased 3DV Systems (purveyor of ToF cameras) and who plans to release Project Natal (rumored to be projected stereo) later this year for the XBox 360?
faende ich recht krass, zumal die tiefeninformation nicht so wichtig zu sein scheint und dafuer ist die tech extrem teuer eigentlich (wie da steht, bei normaler aufloesung ein paar tausend).
-
eben, die info damals war dass microsoft 3DV systems gekauft hat, welche die http://en.wikipedia.org/wiki/ZCam
auf den markt bringen wollten. das sollte eben eine time-of-flight-camera sein, die zum endpreis von ca. 150 dollar angeboten werden sollte.waere damit also eine kleine revolution gewesen, die MS durch den kauf unterbunden hat.
-
-
-
Marc++us schrieb:
Kinnlade runterfall.
Warum kann ich das nicht?
-
Sich ganz klein fühl schrieb:
Marc++us schrieb:
Warum kann ich das nicht?
Weil das wahrscheinlich in deren Bereich fällt. Wenn du dich regelmäßig und seit längerem mit 3D-Darstellungen, den entsprechenden Daten, Methoden und Aufnahmegeräten beschäftigst, kannst du beim Erscheinen von Kinect halt entsprechend losrocken
Nichtsdestotrotz, mich packt da auch die Ehrfurcht.
-
Es besteht ja Hoffnung, das solche Eingabegeräte demnächst von
Programmierern ohne hardwarenahe Programmierkenntnisse genutzt
werden können.Microsoft Bewegungssteuerung Kinect steht Entwicklern vermutlich
ab Frühjahr 2011 auch auf dem PC zur Verfügung. Microsoft Research hat ein
(kostenloses) Software Development Kit (SDK) angekündigt.http://www.tecchannel.de/pc_mobile/news/2033989/microsoft_gibt_kinect_fuer_pc_entwickler_frei/