Minimizzare l’errore sulla media di N misure correlate e scorrelate

Abbiamo visto in un precedente articolo come è possibile scegliere i pesi in una media ponderata di due misure in modo da minimizzare l’errore sulla media. In questo articolo generalizziamo il trattamento a $N$ misure.

Consideriamo il caso generale in cui abbiamo $N$ misurazioni $x_i \pm \sigma_i$, insieme alla loro matrice di correlazione $C_{ij}$. Vogliamo trovarne la loro media ottimale, ovvero combinarle con dei pesi $w_i$ con $\sum_i w_i=1$

$$x = \sum_i w_i x_i$$

in modo da minimizzare l’errore sulla media $x$. L’errore su $x$ può essere calcolato dalla varianza

$$\mathrm{Var}(x) = \sum_i \sum_j w_i w_j C_{ij}$$

dove $C_{ij}$ è la matrice di covarianza delle $x_i$. Sulla diagonale abbiamo le varianze delle misurazioni, cioè $C_{ii} = \sigma_i^2$. Vogliamo minimizzare $\mathrm{Var}(x)$ con la condizione $\sum_i w_i=1$. A tal fine scegliamo di esprimere uno dei pesi rispetto agli altri, cioè scriviamo $w_1 = 1-\sum_{i \neq 1} w_i$ e quindi otteniamo

\begin{align*}
\mathrm{Var}(x) &= \sum_i \sum_j w_i w_j C_{ij}=\\
&=w_1^2 C_{11} +2 w_1 \sum_{j \neq 1} w_j C_{1j} + \sum_{i \neq 1} \sum_{j \neq 1} w_i w_j C_{ij}=\\
&=\pqty{1-\sum_{i \neq 1} w_i}^2 C_{11} +2 \pqty{1-\sum_{i \neq 1} w_i} \sum_{j \neq 1} w_j C_{1 j} + \sum_{i \neq 1} \sum_{j \neq 1} w_i w_j C_{ij}
\end{align*}

dove nella seconda riga abbiamo utilizzato il fatto che la matrice di covarianza è sempre simmetrica. Possiamo quindi derivare $\mathrm{Var}(x)$ rispetto ad ognuno dei $w_k$ per $k \neq 1$, ottenendo:

$$\pdv{\mathrm{Var}(x)}{w_k} =-2\pqty{1-\sum_{i \neq 1} w_i} C_{11} -2 \sum_{j \neq 1} w_j C_{1 j}+2\pqty{1-\sum_{i \neq 1} w_i} C_{1 k} + 2\sum_{i \neq 1} w_i C_{ik}$$

dove abbiamo usato di nuovo la simmetria della matrice di covarianza. Risostituendo $w_1 = 1-\sum_{i \neq 1} w_i$ otteniamo quindi la forma più compatta

$$\pdv{\mathrm{Var}(x)}{w_k} =-2 \sum_{j} w_j C_{1 j}+2\sum_{i} w_i C_{ik} = 0$$

In altre parole i pesi soddisfano

$$\sum_{i} C_{ki} w_i=\sum_{i} C_{1i} w_i$$

Ciò vuol dire che la somma $\sum_{i} C_{ki} w_i$ è una costante indipendente da $k$. Perciò scriviamo $\sum_{i} C_{ki} w_i=a$. Ora se $x$ è il vettore i cui componenti sono tutti uguali a $1$, cioè $x_i=1$, possiamo scrivere quest’ultima relazione nella seguente forma matriciale:

$$C w = a x$$

dove $C$ è la matrice di covarianza e $w$ il vettore dei pesi, mentre $a$ e $x$ sono stati appena descritti. Una matrice simmetrica e definita positiva è sempre invertibile. La matrice di covarianza è sempre simmetrica e semidefinita positiva, ma è un caso raro, per cui supponiamo che sia invertibile. Allora abbiamo

$$w = a (C^{-1})x$$

ovvero ripristinando gli indici, $w_i = a \sum_j (C^{-1})_{ij}$. A questo punto la costante $a$ può essere ricavata dal requisito che $\sum_i w_i = 1$ e quindi otteniamo:

$$\boxed{w_i = \frac{\sum_j (C^{-1})_{ij}}{\sum_j\sum_k (C^{-1})_{jk}}}$$

Questa formula si riduce alle due precedenti nei casi specifici. Ad esempio, se le misurazioni sono scorrelate, allora $C$ sarà diagonale con le varianze sulla diagonale; perciò anche $C^{-1}$ è diagonale e quindi

$$w_i = \frac{1/ \sigma_i^2}{\sum_j 1/\sigma_j^2}$$

che quindi generalizza la formula che abbiamo visto per due misure scorrelate.

Questa voce è stata pubblicata in statistica. Contrassegna il permalink.

Commenta

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.