Abbiamo visto come calcolare la distribuzione del divario tra gli autovalori delle matrici casuali $2\times 2$, nel caso di matrici reali simmetriche e in quello delle matrici complesse hermitiane. In questo articolo calcoliamo la distribuzione degli autovalori stessi.
Consideriamo di nuovo una matrice reale simmetrica
$$X = \begin{pmatrix} a & b \\ b & c\end{pmatrix}$$
Supponiamo che gli elementi di $X$ siano estratti secondo una qualche distribuzione $\propto e^{V(X)}$. Richiederemo soltanto che la distribuzione sia invariante per rotazioni, cioè $V(O X O^T)=V(X)$ per ogni $O$ ortogonale, ovvero $O O^T = 1$. Poiché una matrice reale simmetrica può essere diagonalizzata da una matrice ortogonale, $V$ dipende solo dagli autovalori di $X$, ovvero $V(X) = V(\lambda_1, \lambda_2)$. Tipicamente si sceglie ad esempio $V(X) = \tr(X^2) = \lambda_1^2 + \lambda_2^2$, che corrisponde ad una distribuzione Gaussiana, ma ad esempio anche $V(X) = \tr(X^4)$ ecc. La densità di probabilità è data da
$$p(a,b,c)\, da \, db \, dc \propto e^{V(X)} da\, db\, dc$$
Vogliamo conoscere la distribuzione degli autovalori $\lambda_1$ e $\lambda_2$. A tal scopo diagonalizziamo prima di tutto $X$, ottenendo
$$X = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta\end{pmatrix} \begin{pmatrix} \lambda_1 & 0 \\ 0 & \lambda_2\end{pmatrix} \begin{pmatrix} \cos\theta & \sin\theta \\ -\sin\theta & \cos\theta\end{pmatrix}$$
dove abbiamo usato la forma generale di una matrice ortogonale $2 \times 2$. Da qui possiamo ottenere una relazione tra gli elementi di $X$ da un lato e gli autovalori e $\theta$ dall’altro. Abbiamo infatti
$$a = \lambda_1 \cos^2\theta + \lambda_2 \sin^2\theta \quad \quad \quad c = \lambda_2 \cos^2\theta + \lambda_1 \sin^2\theta \quad \quad \quad b = \sin\theta \cos\theta (\lambda_1-\lambda_2)$$
Possiamo perciò calcolare la matrice Jacobiana della trasformazione,
$$J = \begin{pmatrix} \cos^2\theta & \sin^2\theta & 2\sin\theta\cos\theta (\lambda_2-\lambda_1) \\ \sin^2\theta & \cos^2\theta & 2\sin\theta\cos\theta (\lambda_1-\lambda_2) \\ \sin\theta\cos\theta & -\sin\theta\cos\theta & (\cos^2\theta -\sin^2\theta) (\lambda_1-\lambda_2) \end{pmatrix}$$
Calcolarne il determinante è un affare noioso ma non difficile e otteniamo $\abs{\det{J}} = \abs{\lambda_2-\lambda_1}$. Perciò abbiamo
$$p(a,b,c)\, da \, db \, dc \propto e^{V(\lambda_1, \lambda_2)} \abs{\lambda_2-\lambda_1}\, d\lambda_1 \, d\lambda_2 \, d\theta$$
Poiché $\theta$ non compare in $V$, allora possiamo integrarlo via e otteniamo quindi la densità di probabilità
$$p(\lambda_1, \lambda_2) = \propto e^{V(\lambda_1, \lambda_2)} \abs{\lambda_2-\lambda_1}$$
Nel caso di una distribuzione gaussiana, $V(\lambda_1, \lambda_2) =-\frac12(\lambda_1^2+\lambda_2^2)$ e potremmo sostituire $u = (\lambda_1+\lambda_2)/2$ e $v=(\lambda_1-\lambda_2)$ per ottenere di nuovo la distribuzione dei divari energetici che avevamo ottenuto con un altro metodo in un articolo precedente.
Se invece avessimo iniziato con una matrice complessa hermitiana, utilizzando lo stesso metodo avremmo ottenuto la distribuzione
$$p(\lambda_1, \lambda_2) = \propto e^{V(\lambda_1, \lambda_2)} \abs{\lambda_2-\lambda_1}^2$$
Anche questa distribuzione, con la stessa sostituzione, si riduce a quella dei divari che avevamo già trovato. In entrambi i casi, notiamo che a causa del termine $\abs{\lambda_2-\lambda_1}$ gli autovalori non sono per nulla indipendenti, e anzi sono fortemente correlati.