Minimizzare l’errore sulla media di due misure correlate e scorrelate

Supponiamo di avere due misure sperimentali della stessa cosa, $x_1 \pm \sigma_1$ e $x_2 \pm \sigma_2$. Vogliamo combinarle in maniera da ottenere l’errore più piccolo possibile. A tal fine definiamo

$$x = w_1 x_1 + w_2 x_2\quad \quad w_1+w_2=1$$

dove appunto $w_1$ e $w_2$ sono dei pesi che sceglieremo in modo da minimizzare l’errore totale su $x$. La varianza di $x$ è

$$\mathrm{Var}(x) = w_1^2 \mathrm{Var}(x_1)+w_2^2 \mathrm{Var}(x_2) + 2 w_1 w_2 \mathrm{Cov}(x_1, x_2) = w_1^2 \sigma_1^2+w_2^2 \sigma_2^2 + 2 w_1 w_2 C_{12}$$

dove abbiamo chiamato $C_{12}=\mathrm{Cov}(x_1, x_2)$. La covarianza delle due misure dev’essere calcolata insieme ad esse, altrimenti non è conoscibile. Ora vogliamo scegliere $w_1$ e $w_2$ in modo da minimizzare la varianza della media ponderata. A tal fine sostituiamo $w_2=1-w_1$:

$$\mathrm{Var}(x) = w_1^2 \sigma_1^2+(1-w_1)^2 \sigma_2^2 + 2 w_1 (1-w_1) C_{12}$$

Derivando otteniamo:

$$\dv{\mathrm{Var}(x)}{w_1} = 2 w_1 \sigma_1^2-2(1-w_1) \sigma_2^2 + 2 (1-2w_1) C_{12}=0$$

Per cui otteniamo

$$w_1 =\frac{\sigma_2^2-C_{12}}{\sigma_1^2 + \sigma_2^2 -2 C_{12}}\\
w_2 =\frac{\sigma_1^2-C_{12}}{\sigma_1^2 + \sigma_2^2 -2 C_{12}}$$

Per completezza dovremmo anche controllare che il minimo sia globale, ovvero che sia minore dei valori agli estremi dell’intervallo, cioè $w_1=0,1$. Nel caso in cui le due misure non abbiano correlazione reciproca, $C_{12}=0$ e quindi

$$w_1 =\frac{\sigma_2^2}{\sigma_1^2 + \sigma_2^2} = \frac{1/\sigma_1^2}{1/\sigma_1^2 + 1/\sigma_2^2}\\
w_2 =\frac{\sigma_1^2}{\sigma_1^2 + \sigma_2^2} = \frac{1/\sigma_2^2}{1/\sigma_1^2 + 1/\sigma_2^2}$$

Ovvero il peso della misura $x_i$ è inversamente proporzionale alla sua varianza. In questa maniera le misure più precise avranno un peso più elevato.

Il fatto di avere una differenza nel numeratore può dar luogo al caso strano in cui i pesi $w_i$ siano negativi. Ciò ha la strana conseguenza per cui la media di $x_1$ e $x_2$ potrebbe trovarsi fuori dall’intervallo $[x_1, x_2]$. Ad esempio consideriamo due misure $x_1 = 0$ e $x_2 = 1$ con matrice di covarianza

$$C = \begin{pmatrix} 1 & 2 \\ 2 & 5 \end{pmatrix}$$

La matrice è simmetrica e definita positiva e quindi è una possibile matrice di covarianza. Allora troviamo con la formula sopra

$$w_1 = \frac32 \quad \quad w_2 = -\frac12$$

Perciò in totale

$$x = w_1 x_1 + w_2 x_2 = -\frac12$$

In particolare $x$ è minore tanto di $x_1$ quanto di $x_2$. Questo risultato può apparire paradossale, ma in relazione all’applicazione concreta può invece essere perfettamente ragionevole. In particolare $x_1$ e $x_2$ sono fortemente correlati: hanno infatti un coefficiente di correlazione pari a $2/\sqrt{5} \approx 0.89$ che è molto vicino al massimo pari a $1$. Ora poiché $x_2$ è maggiore di $x_1$ ed è parecchio più impreciso di $x_1$, allora è probabile che $x_2$ sia “troppo grande” rispetto al valore vero di $x$. Ma poiché $x_1$ e $x_2$ sono fortemente correlati, allora è probabile che anche $x_1$ sia “troppo grande” e quindi la cosa più probabile è che il valore reale di $x$ si trovi sotto entrambi.

Questa voce è stata pubblicata in statistica. Contrassegna il permalink.

Commenta

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.