Perché gli errori si aggiungono in quadratura

Alle superiori abbiamo imparato che se abbiamo due misure $x_1 \pm \delta x_1$ e $x_2 \pm \delta x_2$ allora l’errore sulla loro somma $x_1 + x_2$ è dato dalla somma degli errori $\delta x_1+\delta x_2$. All’università invece abbiamo imparato che ciò non è vero, e che invece gli errori si “aggiungono in quadratura“, ovvero l’errore su $x_1 + x_2$ è dato da $\sqrt{\pqty{\delta x_1}^2+\pqty{\delta x_2}^2}$. Ora vediamo perché questa seconda formula è corretta e come può essere estesa in altri casi.

Adottiamo una notazione più “statistica”. Ovvero supponiamo di avere due misurazioni $X_1$ e $X_2$, che possono anche essere identiche, cioè possono avere la stessa distribuzione. La cosa importante da richiedere è che le due variabili siano indipendenti. Cioè il risultato di una misurazione non ha nessun effetto sulla misurazione dell’altro. Ciò è vero in molti contesti, ad esempio se misuriamo due volte una certa posizione con un righello. In tal caso $X_1$ e $X_2$ sono identicamente distribuite, perché misuriamo la stessa cosa, ma indipendenti, perché il risultato dell’una e dell’altra sono indipendenti. Se facessimo $N$ misurazioni allora avremmo $N$ variabili $X_1, \ldots, X_N$ identicamente distribuite.

Da un punto di vista matematico, due eventi $A$ e $B$ sono indipendenti se la probabilità condizionata di uno non ha effetto sull’altro, ovvero $p(A | B) = p(A)$. Ciò vuol dire che sapere che $B$ è avvenuto o meno non ha effetto sulla probabilità che avvenga $A$. Dalla dimostrazione del teorema di Bayes sappiamo che $p(A | B) = p(A \cap B) / p(B)$, perciò l’indipendenza degli eventi $A$ e $B$ si può anche esprimere con la condizione $p(A \cap B)=p(A)p(B)$, che è anche palesemente simmetrica. In termini delle variabili casuali $X_1$ e $X_2$ un evento corrisponde ad un certo valore assunto dalla variabile, ad esempio $X_1=x_1$. Perciò l’indipendenza delle due variabili può essere espressa tramite la condizione

$$p(X_1 = x_1 \cap X_2 = x_2) = p(X_1 = x_1) p(X_2 = x_2)$$

Applicando questa regola ai valori attesi abbiamo quindi

\begin{align*}
\expval{X_1 X_2} &= \int dx_1 dx_2\, p(X_1 = x_1 \cap X_2 = x_2) x_1 x_2 =\\
&=\int dx_1 dx_2\, p(X_1 = x_1) p(X_2 = x_2) x_1 x_2 =\\
&=\pqty{\int dx_1\, p(X_1 = x_1) x_1} \pqty{\int dx_2\, p(X_2 = x_2) x_2} = \expval{X_1} \expval{X_2}\\
\end{align*}

Ovvero il valore atteso del prodotto è il prodotto dei valori attesi. Ora consideriamo la variabile casuale data dalla somma delle due

$$X = X_1 + X_2$$

Da una regola generale dei valori attesi abbiamo

$$\expval{X} = \expval{X_1} + \expval{X_2}$$

Ora rimane da calcolare l’errore su $X$, che è la radice quadrata della varianza

$$\sigma^2 = \expval{\pqty{X-\expval{X}}^2} = \expval{X^2}-\expval{X}^2$$

Supponiamo di conoscere gli errori su $X_1$ e su $X_2$, dati da

$$\sigma_1^2 = \expval{X_1^2}-\expval{X_1}^2 \,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\, \sigma_2^2 = \expval{X_2^2}-\expval{X_2}^2$$

Perciò abbiamo

\begin{align*}
\sigma^2 &= \expval{X^2}-\expval{X}^2=\\
&= \expval{\pqty{X_1+X_2}^2}-\pqty{\expval{X_1}+\expval{X_2}}^2=\\
&= \expval{X_1^2}+\expval{X_2^2}+2\expval{X_1 X_2}-\expval{X_1}^2-\expval{X_2}^2 -2\expval{X_1}\expval{X_2}=\\
&= \sigma_1^2 + \sigma_2^2+2\mathrm{Cov}(X_1, X_2)
\end{align*}

dove la covarianza delle due variabili casuali è data da

$\mathrm{Cov}(X_1, X_2) = \expval{\pqty{X_1 -\expval{X_1}}\pqty{X_2 -\expval{X_2}}} = \expval{X_1 X_2}-2\expval{X_1}\expval{X_2}$

Perciò se le due variabili sono indipendenti, la covarianza è nulla $\mathrm{Cov}(X_1, X_2)=0$ e quindi la varianza di $\sigma^2$ è data da

$$\sigma^2 = \sigma_1^2 + \sigma_2^2$$

Ciò implica che l’errore su $X=X_1+X_2$, che è la radice quadrata della varianza, è dato da $\sigma = \sqrt{\sigma_1^2 + \sigma_2^2}$, cioè l’errore si aggiunge in quadratura. Poiché è sempre vero che $\sqrt{\sigma_1^2 + \sigma_2^2} \leq \sigma_1 + \sigma_2$, aggiungendo gli errori linearmente sovrastimiamo l’errore totale.

Inoltre anche quando le due misure non fossero indipendenti, ad esempio se derivano da un calcolo numerico invece che da una misura sperimentale, la maniera corretta di calcolare l’errore totale è di aggiungere la covarianza delle due misure, e non di aggiungere gli errori linearmente.

Questa voce è stata pubblicata in statistica. Contrassegna il permalink.

Commenta

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.