Kann man mit Microsofts Kinect auch Motion Capturing betreiben?



  • Na Motion Capturing hin oder her, es wird jedenfalls sehr interessant, wie gut sich solche Spiele hier tatsächlich spielen lassen:

    http://www.youtube.com/watch?v=ett59SzAqRA



  • rapso schrieb:

    Kinect IST motion capturing.
    Mittels der camerasensoren werden die bewegungen der spieler auf ein skelet uebertragen das dann von spielen genutzt werden kann um spielelogik zu fuettern.

    Ich glaube nicht dass microsoft die Kinect software opensource machen wird.

    Du brauchst doch die Software gar nicht als Open Source, sondern nur die Animationsdaten für dein Open Source Spiel.

    Das ist genauso wie mit Visual Studio, wenn du damit Open Source Spiele entwickelst, dann muß Visual Sutdio Open Source werden, damit du deinen Quellcode deines Spieles unter die GPL stellen kannst.



  • _matze schrieb:

    Na Motion Capturing hin oder her, es wird jedenfalls sehr interessant, wie gut sich solche Spiele hier tatsächlich spielen lassen:

    http://www.youtube.com/watch?v=ett59SzAqRA

    Endlich nach dem Computerspielen stinken und schwitzen, so daß man gleich noch Duschen kann.



  • Erkenner der Nichterkenne schrieb:

    rapso schrieb:

    Kinect IST motion capturing.
    Mittels der camerasensoren werden die bewegungen der spieler auf ein skelet uebertragen das dann von spielen genutzt werden kann um spielelogik zu fuettern.

    Ich glaube nicht dass microsoft die Kinect software opensource machen wird.

    Du brauchst doch die Software gar nicht als Open Source, sondern nur die Animationsdaten für dein Open Source Spiel.

    Das ist genauso wie mit Visual Studio, wenn du damit Open Source Spiele entwickelst, dann muß Visual Sutdio Open Source werden, damit du deinen Quellcode deines Spieles unter die GPL stellen kannst.

    Axo, so wie du also aus anderen xbox spielen die animationsdaten nimmst, willst du das jetzt mit den von kinect spielen machen?

    ich glaube das ist nicht ganz durchdacht.



  • rapso schrieb:

    Axo, so wie du also aus anderen xbox spielen die animationsdaten nimmst, willst du das jetzt mit den von kinect spielen machen?

    ich glaube das ist nicht ganz durchdacht.

    Schade, du scheinst es nichtmal dann zu begreifen bzw. zu erkennen, wenn man es dir direkt vor die Nase setzt.



  • rapso schrieb:

    Axo, so wie du also aus anderen xbox spielen die animationsdaten nimmst, willst du das jetzt mit den von kinect spielen machen?

    ich glaube das ist nicht ganz durchdacht.

    Aber hier geht es doch nur darum, die Daten des Geräts abzugreifen, falls möglich, aber nicht Daten bestimmter Spiele zu klauen. Ich muss dabei daran denken, wie manche Leute das Guitar Hero Schlagzeug als MIDI Eingabegerät missbrauchen und damit Cubase & Co. befeuern. Das hat ja mit dem Spiel selbst nichts zu tun. Oder denke an die Wii Fernbedienung...



  • Erkenner der Nichterkenne schrieb:

    rapso schrieb:

    Axo, so wie du also aus anderen xbox spielen die animationsdaten nimmst, willst du das jetzt mit den von kinect spielen machen?

    ich glaube das ist nicht ganz durchdacht.

    Schade, du scheinst es nichtmal dann zu begreifen bzw. zu erkennen, wenn man es dir direkt vor die Nase setzt.

    lustig wie man etwas nicht versteht, selbst wenn man vom zaunpfahl erschlagen wird und dann sogar dem, der sich damit auskennt sowas vorwirft. you made my day 🙂



  • _matze schrieb:

    rapso schrieb:

    Axo, so wie du also aus anderen xbox spielen die animationsdaten nimmst, willst du das jetzt mit den von kinect spielen machen?

    ich glaube das ist nicht ganz durchdacht.

    Aber hier geht es doch nur darum, die Daten des Geräts abzugreifen, falls möglich, aber nicht Daten bestimmter Spiele zu klauen.

    Das geraet? meinst du die sensoren? willst du jetzt die kinect software nachcoden die aus den bildern die motion capturing daten extrahiert? wieso nimmst du dann nicht gleich eine cam und klebst leuten ein paar blinkis an? das kostet sicherlich dann keine 150euro. (das playstation3 eye ist dafuer nicht schlecht, hat 120hz).

    Ich muss dabei daran denken, wie manche Leute das Guitar Hero Schlagzeug als MIDI Eingabegerät missbrauchen und damit Cubase & Co. befeuern. Das hat ja mit dem Spiel selbst nichts zu tun. Oder denke an die Wii Fernbedienung...

    ist dir dabei aufgefallen, dass die leute die software trotzdem nachcoden muessen?
    natuerlich gibt es leute die die camera in der wiimote zum headtracking benutzen usw. so wie man es auch bei motion capturing machen koennte, aber immer mit der eigenen software.



  • rapso schrieb:

    _matze schrieb:

    rapso schrieb:

    Axo, so wie du also aus anderen xbox spielen die animationsdaten nimmst, willst du das jetzt mit den von kinect spielen machen?

    ich glaube das ist nicht ganz durchdacht.

    Aber hier geht es doch nur darum, die Daten des Geräts abzugreifen, falls möglich, aber nicht Daten bestimmter Spiele zu klauen.

    Das geraet? meinst du die sensoren? willst du jetzt die kinect software nachcoden die aus den bildern die motion capturing daten extrahiert? wieso nimmst du dann nicht gleich eine cam und klebst leuten ein paar blinkis an? das kostet sicherlich dann keine 150euro. (das playstation3 eye ist dafuer nicht schlecht, hat 120hz).

    Ich muss dabei daran denken, wie manche Leute das Guitar Hero Schlagzeug als MIDI Eingabegerät missbrauchen und damit Cubase & Co. befeuern. Das hat ja mit dem Spiel selbst nichts zu tun. Oder denke an die Wii Fernbedienung...

    ist dir dabei aufgefallen, dass die leute die software trotzdem nachcoden muessen?
    natuerlich gibt es leute die die camera in der wiimote zum headtracking benutzen usw. so wie man es auch bei motion capturing machen koennte, aber immer mit der eigenen software.

    Tja, das hast du jetzt selbst sehr spät erkannt.



  • rapso schrieb:

    Das geraet? meinst du die sensoren? willst du jetzt die kinect software nachcoden die aus den bildern die motion capturing daten extrahiert? wieso nimmst du dann nicht gleich eine cam und klebst leuten ein paar blinkis an? das kostet sicherlich dann keine 150euro. (das playstation3 eye ist dafuer nicht schlecht, hat 120hz).

    Na ja, ich weiß ja nicht, wie Kinect funktioniert. Es gibt doch auch Kameras mit Hardware-Face-Detection, soweit ich weiß (wo dann DSPs verbaut sind oder so). Daher finde ich es nicht unmöglich, dass bei Kinect ähnliches passiert. Wäre ja auch für die betagte XBox für Vorteil, wenn sie nicht selbst die komplette Bildauswertung machen muss. Dass selbst in dem Fall noch ein wenig Software dahinter gehört, ist klar. Aber genau wie bei der Wiimote würde es wohl nicht lange dauern.



  • Erkenner der Nichterkenne schrieb:

    rapso schrieb:

    _matze schrieb:

    rapso schrieb:

    Axo, so wie du also aus anderen xbox spielen die animationsdaten nimmst, willst du das jetzt mit den von kinect spielen machen?

    ich glaube das ist nicht ganz durchdacht.

    Aber hier geht es doch nur darum, die Daten des Geräts abzugreifen, falls möglich, aber nicht Daten bestimmter Spiele zu klauen.

    Das geraet? meinst du die sensoren? willst du jetzt die kinect software nachcoden die aus den bildern die motion capturing daten extrahiert? wieso nimmst du dann nicht gleich eine cam und klebst leuten ein paar blinkis an? das kostet sicherlich dann keine 150euro. (das playstation3 eye ist dafuer nicht schlecht, hat 120hz).

    Ich muss dabei daran denken, wie manche Leute das Guitar Hero Schlagzeug als MIDI Eingabegerät missbrauchen und damit Cubase & Co. befeuern. Das hat ja mit dem Spiel selbst nichts zu tun. Oder denke an die Wii Fernbedienung...

    ist dir dabei aufgefallen, dass die leute die software trotzdem nachcoden muessen?
    natuerlich gibt es leute die die camera in der wiimote zum headtracking benutzen usw. so wie man es auch bei motion capturing machen koennte, aber immer mit der eigenen software.

    Tja, das hast du jetzt selbst sehr spät erkannt.

    Echt putzig, das ganze nur um zu fragen ob man mit einem kameraset und seiner eigenen software motioncapturing machen koennte. yet another day, thx 🙂



  • _matze schrieb:

    Na ja, ich weiß ja nicht, wie Kinect funktioniert. Es gibt doch auch Kameras mit Hardware-Face-Detection, soweit ich weiß (wo dann DSPs verbaut sind oder so). Daher finde ich es nicht unmöglich, dass bei Kinect ähnliches passiert. Wäre ja auch für die betagte XBox für Vorteil, wenn sie nicht selbst die komplette Bildauswertung machen muss. Dass selbst in dem Fall noch ein wenig Software dahinter gehört, ist klar. Aber genau wie bei der Wiimote würde es wohl nicht lange dauern.

    ich glaube es gab einige meldungen dass der chip aus kinect rausflog und die software auf cpu laeuft.
    was ja eigentlich nicht schlim ist, fuer die art von spielen wie kinect normalerweise gedacht ist, braucht man keine ungeheuere cpu leistung, dann lieber den preis bei 150 statt 200 oder 250 setzen und jeder hat mehr davon.



  • rapso schrieb:

    Echt putzig, das ganze nur um zu fragen ob man mit einem kameraset und seiner eigenen software motioncapturing machen koennte. yet another day, thx 🙂

    kein normales kameraset: eines, welches zu den farbwerten eines pixels auch noch dessen tiefe mitliefert, und damit fuer die sichtbaren flaechen des objektes die 3te dimension kennt.

    ich denke fuer die erkennung von bewegungen ist das der entscheidende vorteil, den eine herkoemmliche webcam nicht bietet.



  • loki1985 schrieb:

    rapso schrieb:

    Echt putzig, das ganze nur um zu fragen ob man mit einem kameraset und seiner eigenen software motioncapturing machen koennte. yet another day, thx 🙂

    kein normales kameraset: eines, welches zu den farbwerten eines pixels auch noch dessen tiefe mitliefert, und damit fuer die sichtbaren flaechen des objektes die 3te dimension kennt.

    ich denke fuer die erkennung von bewegungen ist das der entscheidende vorteil, den eine herkoemmliche webcam nicht bietet.

    wie ich schon oft genug sagte, das macht die software, nicht die camera.



  • raps schrieb:

    loki1985 schrieb:

    rapso schrieb:

    Echt putzig, das ganze nur um zu fragen ob man mit einem kameraset und seiner eigenen software motioncapturing machen koennte. yet another day, thx 🙂

    kein normales kameraset: eines, welches zu den farbwerten eines pixels auch noch dessen tiefe mitliefert, und damit fuer die sichtbaren flaechen des objektes die 3te dimension kennt.

    ich denke fuer die erkennung von bewegungen ist das der entscheidende vorteil, den eine herkoemmliche webcam nicht bietet.

    wie ich schon oft genug sagte, das macht die software, nicht die camera.

    Nein, da ist neben der normalen Kamera noch ein Tiefensensor, und der muss schließlich seine Daten übermitteln (die dann von alternativer Software ausgewertet werden könnte).

    http://www.konsolen-world.de/newsskript/article.php?article_file=1277889630.txt&printview=1

    Wie sollten auch zuverlässige Tiefeninformationen aus einem stinknormalen 640*480-Webcam-Bild entstehen? Kann ich mir zumindest nur schwer vorstellen.



  • Man koennte zwei Webcams benutzen.



  • Hier wird's ein bisschen erklärt:

    http://www.t3.com/feature/xbox-kinect-how-the-movement-tracking-works

    Die Daten von der Webcam abzugreifen, würde also reichen, um Bewegung auch in der Tiefe zu bekommen.

    EDIT: Also auf der Seite hört es sich so an, als würde Kinect die ganze Auswertung machen und dann tatsächlich die fertig analysierten Bewegungsdaten weiterschicken. Der Artikel ist leider schon ein paar Monate alt. Rapso meinte ja, gelesen zu haben, dass die HW-Analyse aus Kostengründen auf die XBox abgewälzt wurde...



  • Das hat mal die Kamera gemacht als Microsoft die Firma kaufte, aber aus Kostengründen wurde das alles auf die Xbox verschoben.

    ...and that the processing chip in the original Natal design was removed in favour of a software layer implemented on the 360 itself,...
    In that story, Xbox's technological frontiersman Alex Kipman pegged the load at 10 to 15 per cent depending on the tasks being asked of the various libraries. ...

    Praktisch 1 von 6 Hyperthreads der wegfällt.

    Wie das funktioniert ist einfach:
    Es gibt eine Infrarotkamera mittig und links und rechts infrarot Lightquellen. Die Lichtquellen blinken abwechselnd mit der halben Frequenz in der die Kamera aufnimmt.
    Die Software kann nun von jeweils zwei Bildern zwei Informationen rausfiltern:
    1. Anhand des Schattenrisses der beiden Bilder die genaue Konktur von Objekten und ihre grobe Tiefe.
    2. Anhand der Schattierungen auf den Objekten die mit 16Bit Genauigkeit aufgenommen wird, die sehr genaue Tiefe innerhalb der Objekte bestimmen. - Eine Kamera und zwei Lightquellen sind genau so gut wie zwei Kameras (und eine Lightquelle).

    Das ist der einfache Teil gewesen.
    Jetzt muss anhand dieser Tiefendaten ein skelet positioniert werden, das ist das eigentlich schwierige und es braucht eigentlich auch unmengen Rechenzeit. Microsoft hat bei der Echtzeitanwendung den Vorteil, dass sie die Pose des vorherigen Skelettes haben und eine Genauigkeit von mehreren cm ausreicht.

    Die Kameras an sich sind nicht sonderlich toll, 30Hz SVGA, die PS2 EyeToy Kamera ist besser. Die infrarot Kamera ist vorhanden damit die nutzer nicht verschreckt werden, wenn Lichter im sichtbaren Bereich blinken.

    Das kann man selber nachbauen. Eine rote und eine grüne Brine 1m links und rechts von einer Webcam aufstellen, den Raum abdunkeln und aufnehmen.
    Anschliessend kann sich die Software ordentlich Zeit lassen, um mit bester Qualität die Motion-Capture Daten zu extrahieren.
    Aufgrund von konstanten Lichtbedingungen habt ihr dabei effektiv die doppelte Genauigkeit und wenn ihr eure iPhone4 Kamera benutzt, dann sogar nochmals die vierfache.

    Das ist nichts Fantastisches, es gibt genug Firmen die sowas umsetzen, man muss nur deren Software kaufen 😉
    Das funktioniert zu einem gewissen Grad auch mit nur einer Kamera:
    http://www.hartware.de/news_49817.html

    Alles nur Software.



  • diese sogenannte "kamera" misst die lauflaenge der IR-strahlen. d.h. misst wie lange die strahlen brauchen bis sie wieder zurueckkommen. dadurch erkennt sie wie weit ein objekt entfernt ist, hat also die echten tiefendaten.

    //EDIT: moeglich das ich mich irre, ich weiss nur dass die frueheren versionen das gemacht haben, bevor microsoft die firma gekauft hat. moeglich das es inzwischen anders ist.



  • loki1985 schrieb:

    diese sogenannte "kamera" misst die lauflaenge der IR-strahlen. d.h. misst wie lange die strahlen brauchen bis sie wieder zurueckkommen.

    dir ist klar dass die laufwege von (infrarot)licht in einem raum weit unter dem sind was die ausloesezeit eines elektrischen sensors ist?

    dadurch erkennt sie wie weit ein objekt entfernt ist, hat also die echten tiefendaten.
    //EDIT: moeglich das ich mich irre, ich weiss nur dass die frueheren versionen das gemacht haben, bevor microsoft die firma gekauft hat. moeglich das es inzwischen anders ist.

    Wie derwisser schon (auf komplizierte weise) sagte, erkennt man die tiefe aufgrund der parallax verschiebung. ein objekt was unendlich weit weg ist wird von beinden lichtquellen gleichmaessig ausgeleuchtet. je naeher ein objekt ist, desto groesser die parallax verschiebung der ausleuchtung.

    normalerweise macht man das mit zwei kameras
    http://www.google.de/search?q=parallax+depth+estimation

    aber falls eine kamera zwei bilder mit lichtquellen macht die von zwei seiten kommen, kannst du genau so die tiefe ausrechnen.

    und wie der wisser schon sagte, das ist alte supper und der einfache teil der software. das gibt es schon lange.
    ein skelet auf diese informationen anzupassen ist das schwere.

    was der wisser wohl noch nicht weiss ist dass die tiefeninformation nicht das wichtigste bei der sache ist. 🕶


Anmelden zum Antworten