ultraschall



  • das hört sich auch gut an
    man müsste sich halt ein vernünftiges System überlegen wie man rausfindet
    wo der Kopf (den Rest kann man später ja noch machen) grade ist
    Cam ist eine möglichkeit, aber eine langsame und ungenaue
    ich wollt aber eigentlich mit der Entfernung anfangen
    also weiß jemand den Zusammenhang zwischen Projektionskonstante und Abstand Spieler-Bldschirm?



  • Nick H. schrieb:

    Cam ist eine möglichkeit, aber eine langsame und ungenaue

    5 shots pro sekunde sollten doch reichen. und mit niedrigster auflösung müßte das machbar sein.
    und das detektieren des mittelpunkts eines roten kreises müßte auch kein allzu schwieriges programmierproblem sein. die clownsnase 🤡 ist leider absolut notwendig.
    da man die beidem kamerapunkte hat und von jeder kamera die richtung zur clownsnasenmitte, sollte es dann auch ein leichtes sein, die beiden kamera-nasen-geraden zu schneiden und dort ist die nase.



  • statt ner Clown Nase sollte man lieber ein Gerät nehmen von dem man die Position genau bestimmen kann
    ich kenn mich so n'bisschen mit funk und so aus, ich überleg die ganze Zeit was wohl das richtige dafür wäre

    es gab doch irgendein System mit dem man die Position ganz genau bestimmen konnte
    mit 3 Empfänger jeder bildet eine gerade wo sie sich kreuzen ist das Gegenstück
    aber was für ein System ist das?

    und mir wärs lieber wenn wir jetzt mal übers Thema reden würden
    sonst bleibt das ganze schon am anfang stecken



  • Nick H. schrieb:

    es gab doch irgendein System mit dem man die Position ganz genau bestimmen konnte
    mit 3 Empfänger jeder bildet eine gerade wo sie sich kreuzen ist das Gegenstück
    aber was für ein System ist das?

    Müsste man sich dann nicht noch einen Sender auf den Kopf binden? Oder man versteckt ihn in der Clownsnase 🤡
    geloescht



  • geloescht schrieb:

    Müsste man sich dann nicht noch einen Sender auf den Kopf binden? Oder man versteckt ihn in der Clownsnase 🤡

    ja, nen sender oder nen reflektor.
    ich beginne die webcam-methode immer mehr zu mögen. für die leute, die ohne sonnenbrille spielen, sind die pupillen auch prima zu detektieren. nee, mist, die leute zocken ja in total abgedunkelten räumen. für die vielleicht ein stirnband mit zwei weißen leds drin?

    @Nick H: ich will dich nicht gar veralbern. ich mag halt einfache lösungen. bei webcams hat man standard-teile und keine treiberproblematik und recht billig sind die auch. außerdem hoffe ich, daß die webcams immer besser werden und die prozessoren immer schneller und daß man bereits jetzt ohne schmerzen die pupillen oder leds auf 5mm genau bestimmen kann.



  • @Nick H.
    Der genaue Zusammenhang zwischen Abstand und Projektionsmatrix ist doch erst einmal egal. Das ist nun wirklich nicht das Problem.

    Das mit den Markierungen im Gesicht ist gar keine üble Idee.
    Wenn man zwei davon hat, kann man nicht nur die Position und die Neigung des Kopfes herausfinden, sondern auch auch gleich noch den Abstand zwischen Gesicht und Monitor berechnen (je näher die beiden Markierungen auf dem Kamerabild zusammen liegen, desto weiter weg ist man).
    Eine einfache Web-Cam sollte dafür allemal ausreichen.
    Schwieriger ist die Ermittlung der Kopfdrehung nach links/rechts oder oben/unten.

    Und man muss sich für die Markierungen ne Farbe suchen, die ansonsten im Raum (im Sichtbereich der Kamera) nicht vorkommt 😉



  • Beim drehen kommen die beiden Punkte aber auch näher zusammen.

    Bye, TGGC (Demo or Die)



  • Stimmt. Was könnte man da machen? Die Punktgröße mit einbeziehen vielleicht, aber das wird wohl zu ungenau.



  • Ich bilde mir ein, das es schon so Systeme gibt, welche die 3D-Position abfragen können. Eben z.b. durch Laufzeitenmessung.

    Bye, TGGC (Demo or Die)



  • Die Kopfdrehung sollte kaum eine Auswirkung auf den Bildausschnitt haben. Vielleicht minimal, aber das ist nicht wirklich wichtig. Die Position der Augen ist wichtiger.
    Aber ich denke mit einer Webcam wird die Entfernungsberechnung zu schwierig. Außer, amn plaziert sie über dem Spieler. Dann sind zumindest alle Bewegungen in der Horizontalen abgedeckt. DIe Haarfarbe kann man ja einstellen 😉
    geloescht



  • volkard schrieb:

    die clownsnase 🤡 ist leider absolut notwendig.

    Naja, EyeToyTM & Co. kommen ja auch ohne aus. 😉

    Und irgend'n Freak hatte sich doch vor Jahren mal 'nen 3D-Scanner aus 2 Webcams gebaut IIRC... 😕



  • na dann könnt ihr ja jetzt das System bauen gehen
    ich halts zwar anders für einfacher
    aber ich wünsch euch trotzdem viel Spass...



  • Sgt. Nukem schrieb:

    Naja, EyeToyTM & Co. kommen ja auch ohne aus. 😉

    Da ist es aber egal, wie groß die Entfernung zur Webcam ist (bei Eyetoy zumindest). Die Entfernungen können bei zu nah oder zu weit weg nur nicht mehr so genau festgestellt werden, weil das Bild entweder unscharf oder zu klein ist. Außerdem erkennt Eyetoy soweit meine (recht kleine) Spielerfahrung richtig ist nur Bewegungen, und nicht, wenn man einfach nur vor dem Bildschirm sitzt. Wie weit der Spieler weg ist, das ist bei Eyetoy jedenfalls egal (auf jeden Fall beim ersten Teil...)
    geloescht



  • War auch nicht ganz ernst gemeint.

    Hat wer dieses Sound-Ortungs-Teil auf der GC2005 gesehen?



  • Apropos "Scharf stellen": Könnte das nicht eine Mgölichkeit sein? Die Kamera muss ja scharf stellen, geschieht das nicht automatisch? Könnte man dann nicht auch die Einstellung irgendwie abfragen? Oder ist das zu ungenau? Meine Idee war, dass die Kamera immer aufs Gesicht scharf stellt...
    geloescht



  • würde mich wundern wenn normale Webcams eine Schnittstelle hätten, über die man die Schärfeeinstellung abfragen kann
    ausserdem was will man mit 8 bildern pro sekunde
    in einem schnellen Spiel kann man das vergessen
    30 oder so solltens schon sein



  • Ich weiß nicht, ob man wirklich merken würde, ob es 8 oder 30 Bilder pro Sekunde hat, wenn man zwischen den verschiedenen Kopfpositionen interpoliert. Aber es wird wohl ein Problem sein, dass das Berechnen der Bilder zu viel Prozessorzeit frisst. Ich kenne mich nicht aus, aber wenn man sich keine Clownsnase 🤡 aufsetzen will wird die Erkennung des Gesichts doch etwas zeitraubend, oder?
    geloescht



  • ähm, das mit der Interpolation dürfte etwas schwierig werden. Du kannst nicht zwischen zwei Werten interpolieren, von denen es einen noch nicht gibt. Du kannst höchstens aus den vorherigen Bewegungen extrapolieren, oder einen gewissen Lag in Kauf nehmen. Wenn nur der Öffnungswinkel des Frustum korrigiert wird, dürfte die Veränderung so subtil sein, das ein (geglätteter) Lag nicht auffällt.



  • na dann is ja jetzt alles klar 🙄



  • Aber wenn man sich bewegt, also den Kopf, dann hat man den Monitor nicht mehr im Blickfeld. Lösung: Den Monitor an den Kopf tackern 🙂


Anmelden zum Antworten