Erwartungswert Linearität



  • Hallo!

    Ich versuche hier gerade mein Verständnis einer Erklärungskette zu überprüfen.
    Sagen wir, mir sagt jemand, der Erwartungswert einer stetigen Zufallsvariable X wäre definiert über
    E(X)=xfX(x)dxE(X) = \int{x f_X(x) dx}
    und sagt mir dann, dass EE wegen der Linearität des Integrals somit auch linear ist. Ist das sofort offensichtlich verständlich, soll ich das einfach nur hinnehmen, oder soll ich mir das jetzt herleiten?
    Wenn ich zB. Y=X_1+X_2Y = X\_1 + X\_2 habe, dann folgt für mich daraus erst einmal nur:
    E(Y)=yfX_1+X_2(y)dyE(Y) = \int{yf_{X\_1+X\_2}(y)dy}
    Jetzt müsste ich mir nach meiner Logik erstmal Gedanken darüber machen, wie fX_1+X_2f_{X\_1+X\_2} aussieht, wenn ich die Einzeldichten kenne, und wie das ist wenn die Variablen voneinander abhängig sind. Oder übersehe ich da eine Offensichtlichkeit?



  • Okay, weiter geht's.
    http://www.mia.uni-saarland.de/Teaching/MFI0708/kap67.pdf

    Auf Seite 1 des PDFs wird eine Zufallsvariable definiert als Funktion, die jedem Ereignis der Grundgesamtheit einen bestimmten Wert zuordnet (Ich denke mal, man wird oft den Fall betrachten, wo das einfach die Identitätsfunktion ist, außer man zieht jetzt noch die physikalische Betrachtung ab?).

    Dann geht's auf Seite 2 weiter mit der Definition des Erwartungswerts:
    E(X)=ωΩX(ω)P(ω)dωE(X) = \int_{\omega \in \Omega}{X(\omega)P(\omega)d\omega}

    Dann wird die Linearität hergeleitet, indem für E(X+Y)E(X+Y) geschrieben wird:
    E(X+Y)=ωΩ(X(ω)+Y(ω))P(ω)dωE(X+Y) = \int_{\omega \in \Omega}{(X(\omega)+Y(\omega))P(\omega)d\omega}
    und dann normales Auflösen.

    Aber X(ω),Y(ω)X(\omega), Y(\omega) sind doch in dem Fall keine Funktionen mehr? Es gibt doch unendlich viele Kombinationen von Werten, die zu einem ωΩ\omega \in \Omega führen?



  • Ich verstehe nicht ganz, wo dein Problem liegt. Du hast die Zufallsvariablen X(ω),Y(ω)X(\omega), Y(\omega) gegeben. Nun erzeugst du eine neue Zufallsvariable Z(ω)=X(ω)+Y(ω)Z( \omega) =X(\omega)+Y(\omega). Das dies eine Zufallsvariable ist zeugt aus der definition: für jedes ω gibt Z(ω)Z( \omega) genau einen Wert zurück und ist eine funktion linear in X(ω)X(\omega)und [\latex] Y(\omega)[/latex].

    Nun berechnst du den Erwartungswert von Z

    E(Z)=ωΩZ(ω)P(ω)dω=ωΩX(ω)+Y(ω)P(ω)dω=ωΩX(ω)P(ω)dω+ωΩY(ω)P(ω)dω=E(X)+E(Y)E(Z) = \int_{\omega \in \Omega} Z(\omega)P(\omega)d\omega= \int_{\omega \in \Omega}X(\omega)+Y(\omega)P(\omega)d\omega = \int_{\omega \in \Omega}X(\omega)P(\omega)d\omega + \int_{\omega \in \Omega}Y(\omega)P(\omega)d\omega = E(X) + E(Y)



  • Also wenn ich die Zufallsvariablen X,YX, Y sehe, dann denke ich an zwei "Experimente", jeweils für sich betrachtet. Eine Zufallsvariable Z=X+YZ = X + Y definiert für mein Verständnis gerade ein neues Experiment, nämlich die Summe aus den beiden Elementarexperimenten. Hier kommt für mein Verständnis auch zum Tragen, wie sich X und Y zueinander verhalten.

    Wenn ich nun hinschreibe: Z(ω)=X(ω)+Y(ω)Z(\omega) = X(\omega) + Y(\omega), dann ist dieses ω\omega doch aus einer Menge ΩZ\Omega_Z sozusagen. Also ω\omega könnte in diesem Fall ein Element sein, für das XX und/oder YY gar nicht definiert sind oder eben anders?

    Also das Distributiv-Gesetz und die Linearität des Integrals sind mir schon klar, aber die "Umformung"
    ωΩZ(ω)P(ω)dω=ωΩ(X(ω)+Y(ω))P(ω)dω\int_{\omega \in \Omega}{Z(\omega)P(\omega)d\omega} = \int_{\omega \in \Omega}{(X(\omega)+Y(\omega))P(\omega)d\omega}
    überzeugt mich noch nicht. Warum kann man die Einzelvariablen einsetzen und bei der gemeinsamen Wahrscheinlichkeit bleiben?



  • Also anders ausgedrückt habe ich das Gefühl, dass ich an dem Konzept "Zufallsvariable" etwas noch nicht so ganz richtig verstanden habe. Ich weiß nur nicht, ob ihr aus meinem Geschwafele überhaupt rauslesen könnt, wo es da hakt 😞



  • Ω\Omega ist eine Menge für alle Zufallsvariablen.
    Wenn du an "Experimente" denkst, kannst du dir die Elemente in Ω\Omega als abstrakte "Zustände" deiner Wahrscheinlichkeitswelt vorstellen,
    und jedes Experiment misst einen anderen Aspekt davon, sprich bildet den Zustand auf eine Zahl ab.

    Die Wahrscheinlichkeit P(ω)P(\omega) ist zunächst auf den Zuständen definiert.
    Aber über eine Zufallsvariable = "Experiment" kannst du sie auch auf die jeweiligen Ergebnisse des Experiments nach vorne schieben und erhälst dann das
    fX(x)f_X(x) aus deinem Eingangsposting.
    Die Formeln für den Erwartugswert werden dann zu denen in deinem Eingangsposting aber man sieht erstmal nicht, dass der Erwartugswert linear ist.
    Kann man ja auch schlecht, wenn man sich die Verteilung von nur einer Zufallsvariable anguckt aber eine Aussage über zwei machen will.

    Was geht, ist sich die gemeinsame Verteilung der beiden Zufallsvariablen anzuschauen. Dann ist die Formel für den Erwartungswert
    E(X)=xp(x,y)dxdyE(X) = \int x \; p(x,y) \; dx \; dy bzw. E(Y)=yp(x,y)dxdyE(Y) = \int y \; p(x,y) \; dx \; dy und man sieht wieder, dass E(Z)=(x+y)p(x,y)dxdy=E(X)+E(Y)E(Z) = \int (x+y) \; p(x,y) \; dx \; dy = E(X) + E(Y)



  • C14:
    Ahhhh. Wenn wir jetzt also für stetige Zufallsvariablen X + Y sagen, dann setzen wir voraus, dass sie aus einer gemeinsamen Grundgesamtheit auf die Reellen Zahlen abbilden. Wenn ich z.B. zwei gleichverteilte ZV auf [0,1] habe, und die summiere, dann stelle ich sie mir sozusagen als Randverteilungen aus einer Grundgesamtheit [0,1] \times [0,1] vor? (Das ist jetzt die "kompakteste" Grundgesamtheit, die hier dienlich ist, gibt es da eine "Grundgesamtheit" aller "Grundgesamtheiten"?) Dann ergibt natürlich auch das Mengen-Integral wieder Sinn, die Definitionsbereiche der ZVn passen vor allem jetzt.



  • Nee, das passt noch nicht so genau. Wenn X,Y auf [0,1] "verteilen", kann auch eine der kompaktesten Grundgesamtheiten natürlich irgendwas anderes als [0,1] \times [0,1] sein. Aber es wäre natürlich ein naheliegender Repräsentant dafür, sozsagen Repräsentant einer Äquivalenzklasse aller Paare aus Grundgesamtheit und ZVn oder so. Will nur anmerken, dass die Nennung von [0,1] \times [0,1] als Grundgesamtheit eher Vorspiegelungen falscher Tatsachen begünstigt, diese Menge kann natürlich irgendwie aussehen, die ZVn müssen dann natürlich entsprechend angepasst werden.
    Na gut, ich "denke" laut 😉



  • Wenn man konkret was rechnen will, schaut man sich gerne die gemeinsame Verteilung im Bildbereich an.

    Für die Wahrscheinlichkeitstheorie an sich, ist es aber egal, wie die Grundgesamtheit genau aussieht.
    Wie du schon sagtest, kannst du die Menge beliebig bijektiv abbilden
    (z.B. [0,1]\times[0,1] auf [0,1]).
    Solange du deine Wahrscheinlichkeit und die ZV entsprechend anpasst, ist das wahrscheinlichkeitstheoretisch gleichwertig.



  • Danke auf jeden Fall, jetzt habe ich den Beweis sozusagen in der Grundgesamtheit und eigentlich viel interessanter auch in der zusammengesetzen Verteilungsdichte gesehen und es ist alles schlüssig! 🙂



  • Ich recycle mal den Thread, um einer anderen Fragestellung nachzugehen.

    In meinem Skript steht "Das heißt: In dem Sonderfall, dass X und Y normalverteilt sind, führt eine lineare Unabhängigkeit von X und Y (d.h. Cov(X,Y)=0) auch zur statistischen Unabhängigkeit. Das gilt allerdings nur für normalverteilte X und Y [...]."

    Nun vergleiche ich das mit dem Abschnitt "Die Randverteilung der multivariaten Normalverteilung" im Wikipedia-Artikel: http://de.wikipedia.org/wiki/Mehrdimensionale_Normalverteilung

    Dort hat man doch zwei abhängige, normalverteilte ZVn mit Cov(X,Y) = 0, wenn ich das richtig sehe.
    Ich könnte den Satz im Skript nur so nachvollziehen: "[...] In dem Sonderfall, dass X und Y _BIVARIAT_ normalverteilt sind, [...]".

    Die Herleitung um Skript geht auch von der allgemeinen bivariaten Normalverteilungsdichte aus und setzt in dieser den Korrelationskoeffizienten gleich Null, woraufhin der Term in das Produkt von zwei univariaten Normalverteilungsdichten zerfällt. Das heißt in dem Falle sind die beiden ZVn statistisch unabhängig. Der Umkehrschluss wird da gar nicht gezeigt.

    Ist das gerade nur eine Ausdruckssache? Wenn ich sage A und B sind normalverteilt, dann verstehe ich gerade darunter A ist normalverteilt und B ist normalverteilt. Aber nicht beide bivariat normalverteilt. Hrmmm...

    Kann mir da jemand helfen?


  • Mod

    Nichtmathematiker schrieb:

    Ich recycle mal den Thread, um einer anderen Fragestellung nachzugehen.

    Wieso? Schonung der Umwelt? Oder weil du die Leser vor dem Kopf stoßen willst, die erst die völlig unnötige erste Seite lesen, um dann zu sehen, dass es um was ganz anderes geht?



  • Eher um nicht dafür zu sorgen, dass hier jeder Thread von mir ist. Hab das nicht so tragisch gesehen, weil ich sowieso immer erst die letzten Posts lese, bevor ich mir den Rest ansehe, falls es noch nötig erscheint...



  • Nur, damit dir vielleicht noch geholfen wird:
    Wenn 2 Variablen Bivariat-normalverteilt sind, dann sind ihre jeweiligen marginalverteilungen auch normal.


Log in to reply