Un teorema variazionale per le matrici simmetriche

Data una matrice simmetrica $A$ possiamo dimostrare che per un vettore normalizzato $\mathbf{x}$ la forma quadratica $\mathbf{x}^T A \mathbf{x}$ è compresa tra l’autovalore più piccolo e quello più grande di $A$. Questo teorema è in pratica la versione per le matrici del teorema variazionale della meccanica quantistica e torna spesso utile.

Teorema Sia $A$ una matrice simmetrica e $x$ un vettore normalizzato. Allora

$$\lambda_{\mathrm{min}} \leq \sum_{ij} A_{ij} x_i x_j \leq \lambda_{\mathrm{max}}$$

dove $\lambda_{\mathrm{min}}$ e $\lambda_{\mathrm{max}}$ sono rispettivamente l’autovalore più piccolo e più grande di $A$. Abbiamo uguaglianza a sinistra/destra solo se $x$ è un autovettore corrispondente a $\lambda_{\mathrm{min}}$ / $\lambda_{\mathrm{max}}$.

Dimostrazione. Poiché $A$ è reale simmetrica possiamo diagonalizzarla con una matrice ortogonale. Perciò possiamo scrivere

$$\sum_{ij} A_{ij} x_i x_j = \sum_i \lambda_i \widetilde{x}_i^2$$

dove $\widetilde{x}$ è il vettore $x$ espresso in una base di autovettori e poiché la trasformazione è ortogonale, la normalizzazione rimane la stessa: $\sum_i \widetilde{x}_i^2=1$. Poiché $\lambda_{i} \geq \lambda_{\mathrm{min}}$ allora

$$\sum_{ij} A_{ij} x_i x_j = \sum_i \lambda_i \widetilde{x}_i^2 \geq \lambda_{\mathrm{min}} \sum_i \widetilde{x}_i^2 = \lambda_{\mathrm{min}}$$

In maniera simile abbiamo inoltre $\sum_{ij} A_{ij} x_i x_j  \leq \lambda_{\mathrm{max}}$. Ciò conclude la dimostrazione della prima parte.

Ora supponiamo che $\sum_{ij} A_{ij} x_i x_j = \lambda_{\mathrm{min}}$. La dimostrazione sarà simile per l’altra uguaglianza. Vogliamo dimostrare che $x$ è un autovettore con autovalore $\lambda_{\mathrm{min}}$. Come prima, diagonalizziamo $A$, ottenendo

$$\sum_i \lambda_i \widetilde{x}_i^2 = \lambda_{\mathrm{min}}$$

Ordinando gli autovalori in ordine di grandezza dal più piccolo al più grande abbiamo $\lambda_1 = \lambda_{\mathrm{min}}$ e utilizzando la normalizzazione otteniamo

$$\sum_{i > 1} \lambda_i \widetilde{x}_i^2 = \lambda_{\mathrm{min}} \sum_{i > 1} \widetilde{x}_i^2 \tag{*}$$

Notiamo che la somma esclude $i=1$, perché $\lambda_1 = \lambda_{\mathrm{min}}$ e quindi i due termini si cancellano. Ora se sapessimo che $\lambda_{\mathrm{min}}$ è non-degenere, allora sappiamo che $\lambda_i-\lambda_{\mathrm{min}} > 0$ per $i > 1$ e quindi potremmo concludere che $\widetilde{x}_i=0$ per $i > 1$, il che implica che $x$ è un autovettore. Tuttavia, vogliamo considerare il caso generale in cui si può avere degenerazione. Potremmo anche argomentare così: se i primi $k$ livelli sono degeneri, allora si cancellano nell’espressione $(*)$ e quindi la somma è per $i>k$. Poiché per ipotesi $\lambda_i-\lambda_{\mathrm{min}} > 0$ per $i > k$, allora $\widetilde{x}_i=0$ per $i > k$, il che implica che $\widetilde{x}$ ha componenti non-nulle solo nelle direzioni corrispondenti all’autovalore $\lambda_{\mathrm{min}}$, ed è quindi un autovettore con autovalore $\lambda_{\mathrm{min}}$.

Possiamo anche procedere in maniera alternativa, a partire da $(*)$. Definiamo un nuovo vettore $y$ con un elemento in meno rispetto a $x$ definito da $y_i = \widetilde{x}_i / \sqrt{\sum_{i > 1} \widetilde{x}_i^2}$ per $i >1$. Per costruzione $y$ è quindi normalizzato, e pertanto soddisfa la parte precedente del teorema. Abbiamo quindi $\sum_i \lambda_i y_i^2 \geq \lambda_{2}$ dove $\lambda_2$ è il secondo autovalore più piccolo di $A$, ovvero $\sum_{i > 1} \lambda_i \widetilde{x}_i^2 \geq \lambda_2 \sum_{i > 1} \widetilde{x}_i^2$. Ciò implica che $(*)$ diventa

$$(\lambda_{\mathrm{min}} -\lambda_2)\sum_{i > 1} \widetilde{x}_i^2 \geq 0$$

Perciò ora abbiamo due possibilità. Se $\lambda_2 \neq \lambda_{\mathrm{min}}$ allora $\lambda_2 > \lambda_{\mathrm{min}}$ e quindi l’unico modo in cui la diseguaglianza può essere soddisfatta è se $\sum_{i > 1} \widetilde{x}_i^2=0$, e ciò implica che $\widetilde{x}_i = 0$ per $i > 1$. Ne segue che l’unico componente non-nullo è quello corrispondente a $\lambda_{\mathrm{min}}$ e quindi $x$ è un autovettore di $\lambda_{\mathrm{min}}$. Se invece $\lambda_2 = \lambda_{\mathrm{min}}$ allora in $(*)$ abbiamo due termini identici da entrambi i lati e possiamo cancellare $\lambda_2 \widetilde{x}_2^2$ con $\lambda_{\mathrm{min}} \widetilde{x}_2^2$. A questo punto possiamo ripetere la procedura con $\lambda_3$ invece di $\lambda_2$. Alla fine troveremo perciò che tutti gli $\widetilde{x}_i$ con $\lambda_i \neq \lambda_{\mathrm{min}}$ sono nulli e quindi $x$ appartiene all’autospazio dell’autovettore $\lambda_{\mathrm{min}}$. Ciò conclude la dimostrazione. $\square$

Questa voce è stata pubblicata in altra algebra. Contrassegna il permalink.

Commenta

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.