ultraschall



  • Ich denke wenn ihr sagt, daß der +-Wert _exklusiv_ in der Funktion ist, reicht es TGGC. 😉



  • Spielen die Feinheiten dieses Diagramms eine so große Rolle? Bevor man sich Gedanken über extrapolieren macht müsste man ersteinmal ein Verfahren entwickeln, wie der Computer die Position der Augen feststellen kann. Da ich weder in Bilderkennung bewandert noch eine Webcam habe kann ich das nicht machen. Interessieren würde es mich schon... Irgendwer hat gesagt, es gäbe schon sowas. Kann man das irgendwo finden?
    geloescht



  • is es nich besser nach dem ganzen Kopf zu suchen?
    die Augen sind ja viel kleiner
    und bei einer Bewegung sieht man dann den Unterschied durch den Hintegrund



  • Ja, Blickrichtung feststellen anhand der Augen funktioniert nur schlecht bis garnicht. Besser ist es erstmal den Kopf zu suchen und dann dessen Ausrichtung zu bestimmen.



  • geloescht schrieb:

    Spielen die Feinheiten dieses Diagramms eine so große Rolle?

    Naja wenn das Diagramm der Beweis dafür ist, das es sowieso nicht funktioniert., ist es vielleicht schon wichtig.

    Bye, TGGC (Demo or Die)



  • Jester schrieb:

    Es geht um das dritte x. Mit weniger als zwei gesehen Messwerten kann man ohnehin nicht vernünftig extrapolieren. Anhand dieser beiden Meßwerte extrapoliert er und bewegt sich weiter, bis er dieses + erreicht (oder kurz davor ist). Da kommt der neue Meßwert x und jetzt liegen wir ein deutliches Stück daneben. Ich denke das wo ChockoCookie damit zeigen und das kann man auch, wenn man sich nicht absichtlich blöd anstellt da auch raussehen.

    Danke, so war das auch gemeint.

    Ich kann mir auch vorstellen, das man mit nichtlinearer Extrapolation bessere Ergebnisse erhält. Rein vom physikalischen Standpunkt wird der Weg, den eine von Kräften beeinflusste Masse (Kopf) zurücklegt, über der Zeit aufgetragen einer quadratischen Funktion folgen (solange die Kraft konstant ist, was ja in einem genügend kleinem Zeitabschnitt (dt) der Fall ist).



  • Jester schrieb:

    Ja, Blickrichtung feststellen anhand der Augen funktioniert nur schlecht bis garnicht. Besser ist es erstmal den Kopf zu suchen und dann dessen Ausrichtung zu bestimmen.

    aber kein mensch ist an der blickrichtung interessiert. gesucht ist nur die augenposition.



  • ChockoCookie schrieb:

    Jester schrieb:

    [...]Da kommt der neue Meßwert x und jetzt liegen wir ein deutliches Stück daneben.[...]

    Danke, so war das auch gemeint.

    Wie ich schon sagte ist das Quatsch. Wenn man an dem Messwert ist, dann weiss man den Wert. Also wird man dann auch an der richtigen Stelle sein.

    Bye, TGGC (Demo or Die)



  • irgendwie ist ja die Blickrichtung egal
    es gibt eh nur 2 Möglichkeiten:
    a)er guckt auf den Bildschirm
    b)er guckt nicht auf den Bildschirm

    wenn er auf den Bildschirm guckt wissen wir ja die Blickrichtung
    wenn er nicht draufguckt kann uns das egal sein, da er dann eh nicht sieht was passiert
    ausser wir bauen nen Bildschirmschoner ein
    inmal kurz weggeguckt => Bildschirm aus



  • Selbst wenn er aus dem Augenwinkel schaut ist es egal! Der Blickwinkel hat kaum oder garkeine Auswirkung auf den Bildinhalt. Schwer wirds vielleicht, wenn mehrere Personen auf einen Bildschirm schauen, denn dann weiß das System nicht, welcher Kopf der richtige ist.
    geloescht



  • geloescht schrieb:

    Schwer wirds vielleicht, wenn mehrere Personen auf einen Bildschirm schauen, denn dann weiß das System nicht, welcher Kopf der richtige ist.

    auch nicht schlimm. bisher weiß der spektant auch nie, welche tasten der spieler drückt, beim sliden, jumpen, head-turnen (jeißt das wirklich inzwischen so?) (und bei trefferbedingten bewegungen) kann der zuschauer auch dem geschehen folgen. sehe keinen signifikanten unterschied zwischen sliden mit alt+left und dem nach links-bewegen der beobachteten augen.

    aber das beleuchtete stirnband ist viel kultiger. damit kann man auf lan-parties echt aufmerksamkeit auf sich ziehen (vor allem, weil man das stirnband nicht ausmacht, weder zum pizza-futtern noch zum urinieren) (kommen andere spiel-unterbrechungen überhaupt vor?).



  • volkard schrieb:

    geloescht schrieb:

    Schwer wirds vielleicht, wenn mehrere Personen auf einen Bildschirm schauen, denn dann weiß das System nicht, welcher Kopf der richtige ist.

    auch nicht schlimm. bisher weiß der spektant auch nie, welche tasten der spieler drückt, beim sliden, jumpen, head-turnen (jeißt das wirklich inzwischen so?) (und bei trefferbedingten bewegungen) kann der zuschauer auch dem geschehen folgen. sehe keinen signifikanten unterschied zwischen sliden mit alt+left und dem nach links-bewegen der beobachteten augen.

    aber das beleuchtete stirnband ist viel kultiger. damit kann man auf lan-parties echt aufmerksamkeit auf sich ziehen (vor allem, weil man das stirnband nicht ausmacht, weder zum pizza-futtern noch zum urinieren) (kommen andere spiel-unterbrechungen überhaupt vor?).

    Deinem ersten Absatz kann ich nicht folgen. Ich denke, es wird schon vorkomme, dass Leute nebeneinander vor nem Spiel sitzen...
    Zu deinem 2. ABsatz muss ich sagen, dass es Lamer geben soll, die unter dem Tisch pennen 😉
    geloescht



  • Bitte denkt doch mal etwas nach, bevor ihr die Diskussion in sinnlose Richtungen leitet. Die Blickrichtung ist vollkommen egal. Die geht überhaupt nicht in die Projektionsgleichung ein. Es wird lediglich eine Annahme über die Position des Betrachters gemacht. Würde man beim Rechtsschauen plötzlich eine Ansicht nach rechts ziegen, so müsste der Monitor nun auch rechts stehen. Das ist nicht der Fall.

    Bye, TGGC (Demo or Die)



  • und wenn du nachgedacht hättest, hättest du gemerkt das ich das gleiche grade eben schon gesagt hab 😉



  • Wieso fühlst du dich dann damit angesprochen? Habe nicht behauptet, das dies noch niemand festgestellt hat. Nur auf Euch hört ja keiner... 😎

    Bye, TGGC (Demo or Die)



  • TGGC schrieb:

    Wie ich schon sagte ist das Quatsch. Wenn man an dem Messwert ist, dann weiss man den Wert. Also wird man dann auch an der richtigen Stelle sein.

    Aber einen Moment zuvor ist man an der falschen Position, weil die Extrapolation Fehler macht. Kommt jetzt ein neuer Meßwert, so muß man sich dorthin bewegen. Wir sind dann aber noch nicht dort, weil wir zuvor den Wert noch nicht hatten. Das heißt, es gibt einen Unterschied zwischen der Position, in der wir jetzt im Idealfall wären und der Position, wo wir uns befinden. Umd genau dieser Unterschied wird im Diagramm dargestellt.



  • Einen Moment zuvor, wann genau ist das? Interessiert einen Moment zuvor überhaupt? Ich würde sagen, der Wert interessiert ohnehin nur zur Darstellungszeit. Und dann sind wir an der falschen Position, was ist denn überhaupt die richtige Position? Einen Messwert an der Stelle, mit dem man vergleichen könnte, haben wir nicht. Und auch mit der realen Position vergleichen bringt nichts, wegen der Messfehler sind wir dann _immer_ an der falschen Position. Man muss sich nun also an die Position des neuen Wertes hinbewegen. Na und? Tut man das nicht ständig? Immer wenn sich die Position ändert, muss man sich da hinbewegen. Das ist überhaupt der Sinn des ganzen.

    Dann meinst du noch, es gibt einen Unterschied zur im Diagramm gezeigten Idealposition. Welche genau soll das sein? Wenn dort überhaupt sowas wie Idealpositionen gezeigt werden, dann könnten das doch nur die Messwerte sein. Und wie gesagt, beim Messwert würde man die berechnete Position genau darauf setzen, also kann dort kein Unterschied sein.

    Bye, TGGC (Demo or Die)



  • Ist das echt so schwer?

    Richtig ist natürlich immer das was echt richtig ist. Dort, wo der Kopf des Benutzers zur Zeit ist. Daß wir keine Fehlerfreiheit hinkriegen ist eh klar. Bei jedem Frame stellen wir dar. Wenn wir jetzt die Bewegung extrapolieren, dann führen wir eine begonnene Beweung fort, obwohl der Benutzer sich schon längst wieder anders bewegt. einen Frame bevor wir den neuen Meßwert kriegen (das ist der Moment davor, wie Du Dir sicher auch denken konntest) liegen wir dadurch jetzt grob falsch. Dieser Fehler ist der um den es geht. Kurz nach der letzten Messung liegen wir vermutlich noch richtig, länger danach (noch vor dem nächsten Meßwert) liegen wir vermutlich ziemlich falsch.

    Genau darum ging es.

    Btw. ist die Betrachtung des echten Fehlers doch die einzige Möglichkeit das System objektiv zu beurteilen. Diesen also einfach als irrelevant abzustempeln, weil er sowieso immer da ist ist quatsch. Letztlich ist es doch genau Ziel des Systems diesen Fehler zu minimieren!

    Es behauptet auch niemand, so ein System sei unmöglich zu realisieren. Wir weisen nur auf eine Schwierigkeit hin, um die man sich um ein komfortabel benutzbares System zu kriegen auf jeden Fall intensiv kümmern muß.



  • Ganz genau.
    Da man von der Webcam eine geringere Framerate hat als die Renderframerate (praktische Konsequenz: man braucht zum rendern Werte, die noch gar nicht vorhanden sind), muss man entweder die Kalibrierung des Frustum um einen Webcam - Frame verzögern um interpolieren zu können, oder man benutzt eine Art Vorhersage (Extrapolation), bei der man das Problem hat, das sie bei jedem neuen Webcam Frame invalid wird. Dann kann man aber gleich darauf verzichten, denn das ist um nichts besser als wenn die Kalibrierung nur bei Eintreffen eines neuen Webcam Frames aktualisiert wird (eher schlechter, wenn die Extrapolation in die falsche Richtung ging). Es sei denn, man findet einen Algorithmus, der den Fehler gering hält oder zusammenhängende Werte liefert, wie von geloescht vorgeschlagen. Dabei bekommt man aber vermutlich Schwingungen hinein, die mit den echten Kopfbewegungen wenig zu tun haben (wie von mir angemerkt).
    Was bleibt noch zu sagen?
    Jester hats verstanden
    TGGC jetzt hoffentlich auch



  • Ahso, jetzt sind wir schon grob falsch, vermutlich sogar ziemlich falsch. Das ist ja wirklich schrecklich! Wenn man behauptet, das Extrapolieren (nach dem dritten Frame?) nicht funktioniert dann sollte man nicht nur behaupten, das es da einen Fehler geben könnte, der ja sowieso immer da ist. Man müsste auch zeigen wie gross der Fehler ist, im Vergleich zu anderen Verfahren mit besseren Ergebnissen und dass der Fehler ständig auftritt und nicht nur alle zwei Stunden für 1 Frame. Ich sehe hier jedenfalls weiterhin nichts, warum Extrapolieren weniger geeignet wäre, die Werte zu berechnen, als andere Verfahren.

    Bye, TGGC (Demo or Die)


Anmelden zum Antworten