210
"Az —
lich der Erwartung für das Produkt (x — k) (y — c), wo k und c
willkürliche Konstanten sind, und für das Produkt der Potenzen
von (x — k) und (y — ©), also z. B. hinsichtlich der Erwartung
E (x —})*- (y— 0)
d. h. der Größen
Mag = 3 (xi — k)* (yıi— 0° + PG, }).
Diese Größen heißen Momente der Korrelation um k
und c; ist entweder ß oder « gleich Null, so werden diese Momente
gerade gleich den Momenten der marginalen Verteilungen um jeweils
k und c, und diese können natürlich ohne Kenntnis der Korrelation
bestimmt werden. Man nennt sie oft kurz marginale Momente um
k (resp. c) zum Unterschied von den gemischten Momenten
um k und c, die man erhält, wenn sowohl « und 8 größer als Null
sind, und welche nicht ohne Kenntnis der Korrelation bestimmt
werden können. Wie bei den eindimensionalen Verteilungsgesetzen
spielen die Momente des zweidimensionalen Verteilungsgesetzes eine
bedeutende Rolle in der Statistik. Dies gilt namentlich hinsichtlich
der Momente der Abweichungen, d. h. der Momente um die
Erwartungen
sı = E(x) und t; = E(y),
welche Momente mit
Mas = 3 (zı — sı)* (yı— t)“ + PGO, 3)
bezeichnet werden, und hinsichtlich der Potenzsummen des
zweidimensionalen Verteilungsgesetzes, d. h. der Momente um k=0
und c=— 0, welche mit
se =3x1-yf PO)
bezeichnet werden, und von denen wir im folgenden der Kürze
halber sıo mit s, und so, mit t, benennen.
Wie bei dem eindimensionalen Verteilungsgesetz, So bestehen
zwischen diesen verschiedenen Arten von Momenten gewisse Re-
lationen, welche es ermöglichen, die Momente um ein beliebiges
Zahlenpaar zu finden, sobald die Momente um ein gegebenes Zahlen-
paar bekannt sind. Für die marginalen Momente sind diese Re-
lationen natürlich dieselben, welche oben für jedes eindimensionale
Verteilungsgesetz entwickelt sind, und für die gemischten Momente
findet man diese Relationen in genau entsprechender Weise, indem
man (x — k)* (y — c)* ausrechnet, das erhaltene Polynomium mit
P (i, j) multipliziert und die Produkte addiert.