Abbiamo già introdotto il teorema di Wigner in un precedente articolo. Ora procediamo con la dimostrazione del teorema seguendo Weinberg, The Quantum Theory of Fields.
Teorema. (Wigner) Per ogni simmetria quantistica $T:\mathcal{P}\to \mathcal{P}$, ovvero una trasformazione biettiva che lasci invariate le probabilità, esiste un’operatore unitario o antiunitario $U:\mathcal{H}\to \mathcal{H}$ tale che $T[\phi] = [U\phi]$.
In particolare:
- Un operatore unitario $U$ è $\mathbb{C}$-lineare e soddisfa: $\braket{Uf}{Ug} = \braket{f}{g}$.
- Un operatore antiunitario $V$ è $\mathbb{R}$-lineare e soddisfa: $\braket{Vf}{Vg} = \braket{f}{g}^*$ e $V(i f) = -i V(f)$.
Dimostrazione. Data una simmetria quantistica $T:\mathcal{P}\to \mathcal{P}$ vogliamo costruire un corrispondente $U:\mathcal{H}\to \mathcal{H}$ e mostrare che è unitario o antiunitario. Un assioma della meccanica quantistica è che gli spazi di Hilbert siano separabili, cioè hanno una base numerabile. Scegliamo quindi una base ortonormale $\Psi_k$ per $\mathcal{H}$, dove $\braket{\Psi_k}{\Psi_l} = \delta_{kl}$. Poiché gli $\Psi_k$ sono ortonormali, appartengono ognuno ad un raggio diverso in $\mathcal{P}$.
Chiamando $[\Psi_k]$ il raggio corrispondente a $\Psi_k$ e applicando la trasformazione otteniamo $T [\Psi_k] = [\Psi’_k]$ dove per ogni $k$, $\Psi’_k$ è un rappresentante della classe $[\Psi’_k]$. Senza perdità di generalità possiamo scegliere il rappresentante $\Psi’_k$ normalizzato: $\braket{\Psi’_k}{\Psi’_k}=1$. Utilizzando il fatto che $T$ è una simmetria quantistica otteniamo
$$P(\Psi’_k, \Psi’_l) = P(\Psi_k, \Psi_l)\,\,\,\,\,\,\,\leftrightarrow \,\,\,\,\,\,\,\,\, \abs{\braket{\Psi’_k}{\Psi’_l}} = \abs{\braket{\Psi’_k}{\Psi’_l}} = \delta_{kl}$$
Poiché comunque $\braket{\Psi’_k}{\Psi’_k}=1$, cioè è reale e positivo, abbiamo in realtà
$$\braket{\Psi’_k}{\Psi’_l} = \delta_{kl}$$
Inoltre, gli $\Psi’_k$ formano una base di $\mathcal{H}$; come abbiamo visto, sono tutti ortogonali e perciò linearmente indipendenti. Supponiamo che esista un vettore $\eta’$ che non sia esprimibile come loro combinazione lineare; segue allora che il vettore
$$\xi’ \equiv \eta’ -\sum_k \braket{\Psi’_k}{\eta’} \Psi’_k$$
è non nullo. Inoltre per l’ortogonalità delle $\Psi’_k$ abbiamo $\braket{\xi’}{\Psi’_k}=0$. Per cui abbiamo costruito un vettore non nullo ortogonale a tutti gli $\Psi’_k$. Poiché $T$ è biettiva, possiamo quindi trovare un vettore $\xi$ tale che $[\xi] = T^{-1} [\xi’]$; senza perdità di generalità possiamo sceglierlo in modo che $\braket{\xi’}{\xi’}=\braket{\xi}{\xi}$. Allora poiché $T$ è una simmetria abbiamo:
$$\abs{\braket{\Psi_k}{\xi}}^2 = \abs{\braket{\Psi’_k}{\xi’}}^2 =0$$
per cui abbiamo trovato un vettore non nullo $\xi$ ortogonale a tutti gli $\Psi_k$; ma ciò è impossibile perché gli $\Psi_k$ formano una base. Concludiamo che anche gli $\Psi’_k$ formano una base.
Abbiamo quindi trovato una nuova base ortonormale di vettori $\Psi’_k$; sappiamo che hanno norma unitaria, però non abbiamo ancora fissato la loro fase. Lo facciamo nel modo seguente: scegliamo uno degli $\Psi_k$, diciamo $\Psi_1$ e definiamo per $k \neq 1$:
$$\Theta_k = \frac{1}{\sqrt{2}}(\Psi_1 + \Psi_k)$$
È semplice vedere che i $\Theta_k$ hanno norma uguale ad $1$. Scegliamo poi dei $\Theta’_k$ tali che $[\Theta’_k] = T [\Theta_k]$. Senza perdita di generalità possiamo sceglierli normalizzati. Espandendo nella base $\Psi’_k$ otteniamo
$$\Theta’_k = \sum_l c_{kl} \Psi’_l\,\,\,\,\,\,\,\,\,\,\,\,\,\mathrm{dove}\,\,\,\,c_{kl} = \braket{\Psi’_l}{\Theta’_k}$$
Tuttavia, poiché sia $\Psi’_l$ che $\Theta’_k$ sono normalizzati e $T$ preserva le probabilità, allora
$$\abs{c_{kl}} = \abs{\braket{\Psi’_l}{\Theta’_k}} = \abs{\braket{\Psi_l}{\Theta_k}}=\begin{cases} \frac{1}{\sqrt{2}} & l =1, k\\ 0 & \mathrm{altrimenti} \end{cases}$$
Possiamo quindi aggiustare le fasi di $\Theta’_k$ e $\Psi’_k$ (di cui oltre all’appartenenza ad un certo raggio, avevamo fissato solo la norma) in modo tale che $c_{kk}=c_{k1} = \frac{1}{\sqrt{2}}$. Ciò è sufficiente per definire univocamente tutti gli $\Psi’_k$ e tutti i $\Theta’_k$, per cui poniamo:
$$U \Psi_k \equiv \Psi’_k$$
Se la trasformazione $U$ fosse lineare, definirla su una base sarebbe sufficiente per definirla dappertutto; però non possiamo assumere che lo sia, per cui resta da trovare $U \psi$ per uno $\psi$ generico. In tal caso, espandiamo:
$$\psi = \sum_k C_k \Psi_k$$
Prendiamo quindi uno $\psi’$ tale che $[\psi’] = T [\psi]$ e $\braket{\psi’}{\psi’}=\braket{\psi}{\psi}$. Possiamo espanderlo nella seconda base:
$$\psi’ = \sum_k C’_k \Psi’_k$$
Allora poiché $T$ è una simmetria quantistica otteniamo $\abs{\braket{\Psi_k}{\psi}} = \abs{\braket{\Psi’_k}{\psi’}}$ e $ \abs{\braket{\Theta_k}{\psi}} = \abs{\braket{\Theta’_k}{\psi’}}$. Ovvero in termini dei coefficienti:
$$\begin{cases}|C_k| = |C_k’| &\mathrm{ogni}\,k\\
|C_1+C_k| = |C’_1+C_k’| & k \neq 1\end{cases}$$
Con un po’ di algebra si può verificare che queste due condizioni implicano $\Re{\frac{C_k}{C_1}} = \Re{\frac{C’_k}{C’_1}}$ e $\Im{\frac{C_k}{C_1}} = \pm\Im{\frac{C’_k}{C’_1}}$. Ovvero abbiamo due possibilità:
$$\frac{C_k}{C_1} = \frac{C’_k}{C’_1}\,\,\,\,\,\,\,\,\,(1)\,\,\,\,\,\,\,\mathrm{oppure}\,\,\,\,\,\,\,\,\,\frac{C_k}{C_1} = \pqty{\frac{C’_k}{C’_1}}^*\,\,\,\,\,\,\,\,\,(2)$$
Se i coefficienti $C_k$ sono tutti reali, le opzioni $(1)$ e $(2)$ coincidono e non ci sono problemi; inoltre abbiamo $C’_1 = \pm C_1$, per cui in generale $C’_k = \pm C_k$. Poiché il $\pm$ è una fase globale e siamo liberi di scegliere il vettore $\psi’$ che rappresenta $[\psi’]$; scegliamo quindi quello con il $+$, per cui $C’_k = C_k$.
Nel caso in cui invece alcuni o tutti gli $C_k$ sono complessi, dobbiamo scegliere una tra $(1)$ e $(2)$; tuttavia siamo obbligati a compiere la stessa scelta per ogni $k$: ovvero o vale $(1)$ per ogni $k$, oppure vale $(2)$ per ogni $k$.
Supponiamo che non sia così, cioè che per qualche $k$ valga $(1)$ e che per qualche $l\neq k$ valga $(2)$. Possiamo supporre che i corrispondenti rapporti siano complessi, e non semplicemente reali, altrimenti le condizioni $(1)$ e $(2)$ sono identiche. Sia
$$\phi \equiv \frac{1}{\sqrt{3}} \bqty{\Psi_1 + \Psi_k + \Psi_l}$$
Definiamo quindi $\phi’$ in modo che $[\phi’] = T [\phi]$. Poiché i coefficienti di $\phi$ sono tutti reali, sappiamo già definire $U\phi$, cioè
$$U\phi = \frac{1}{\sqrt{3}}\bqty{\Psi’_1 + \Psi’_k + \Psi’_l}$$
Poiché per definizione $[U\phi]=T[\phi]$ qualsiasi altro vettore nello stesso raggio sarà ad esso proporzionale:
$$\phi’ = \frac{\alpha}{\sqrt{3}}\bqty{\Psi’_1 + \Psi’_k + \Psi’_l}$$
dove $\alpha$ è un numero complesso. Applicando il fatto che $T$ è una simmetria otteniamo $P(\phi, \phi)=P(\phi’,\phi’)$, ovvero:
$$\abs{1+\frac{C’_k}{C’_1}+\frac{C’_l}{C’_1}}^2 = \abs{1+\frac{C_k}{C_1}+\frac{C_l}{C_1}}^2$$
Ma $\frac{C_k}{C_1} = \frac{C’_k}{C’_1}$ e $\frac{C_l}{C_1} = \pqty{\frac{C’_l}{C’_1}}^*$, quindi
$$\abs{1+\frac{C_k}{C_1}+\pqty{\frac{C’_l}{C’_1}}^*}^2 = \abs{1+\frac{C_k}{C_1}+\frac{C_l}{C_1}}^2$$
Espandendo tutto, con un po’ di algebra otteniamo $\Re{\frac{C_k C_l^*}{C_1 C_1^*}} = \Re{\frac{C_k C_l}{C_1 C_1}}$. Partendo da $\Re{uv^*}=\Re{uv}$ e svolgendo i conti si ottiene infine $\Im{\frac{C_k}{C_1}}\Im{\frac{C_l}{C_1}}=0$, per cui uno tra $\frac{C_k}{C_1}$ e $\frac{C_l}{C_1}$ deve essere reale, contrariamente alle assunzioni. Pertanto abbiamo due possibili scelte per $C_k/C_1$, ma devono valere per ogni $k$.
A questo punto rimane soltanto da scegliere $C’_1$. L’unica condizione che abbiamo è che $|C’_1| = |C_1|$, cioè $C’_1$ differisce per una fase da $C_1$; scegliamo quindi $C’_1 = C_1$ nel caso valga $(1)$ e $C’_1 = C_1^*$ nel caso valga $(2)$. In questa maniera la scelta della fase per $C’_1$ cambia il vettore risultante solo per una fase totale, per cui rimaniamo all’interno dello stesso raggio.
Siamo quindi in grado di definire $U$ su un vettore qualsiasi:
$$U\pqty{\sum_k C_k \Psi_k} \equiv \sum_k C_k \Psi’_k\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,(3)\,\,\,\,\,\,\,\,\,\,\mathrm{oppure}\\
U\pqty{\sum_k C_k \Psi_k} \equiv \sum_k C_k^* \Psi’_k\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,(4)\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,$$
Poiché $\Psi’_k \equiv U\Psi_k$ per definizione, è facile mostrare che nel caso $(3)$ la trasformazione $U$ è unitaria, mentre nel caso $(4)$ è antiunitaria, come definita in precedenza. Ad esempio nel caso $(4)$, cioè se $U$ è antiunitaria, prendendo $\Psi_A = \sum_k A_k \Psi_k$ e $\Psi_B = \sum_k B_k \Psi_k$ abbiamo
\begin{align*}
U(\alpha \Psi_A + \beta \Psi_B) &=U\pqty{\alpha\sum_k A_k \Psi_k +\beta \sum_k B_k \Psi_k}=\\
&=U\pqty{\sum_k (\alpha A_k+\beta B_k) \Psi_k}=\\
&=\sum_k (\alpha^* A_k^*+\beta^* B_k^*) \Psi’_k=\\
&=\alpha^* \sum_k A_k^* \Psi’_k+\beta^*\sum_k B_k^* \Psi’_k=\\
&=\alpha^* U\Psi_A +\beta^* U\Psi_B
\end{align*}
per cui $U$ è antilineare. Inoltre un calcolo diretto mostra che
$$\braket{U\Psi_A}{U\Psi_B} = \sum_k A_k B_k^* =\braket{\Psi_A}{\Psi_B}^*$$
e quindi $U$ è antiunitaria. Il caso unitario è simile.
L’unica cosa che rimane da dimostrare è che la $(3)$ o la $(4)$ sono valide indipendentemente dal vettore a cui è applicata la trasformazione. Ovvero vogliamo dimostrare che o per tutti i vettori vale la $(3)$, oppure per tutti i vettori vale la $(4)$: non è possibile che per qualcuno valga una e per un altro valga l’altra. In altri termini il fatto che la $U$ soddisfi la $(3)$ o la $(4)$ dipende solo dalla trasformazione $T$ iniziale.
Ora deriveremo una condizione necessaria perché una singola trasformazione possa agire in maniera diversa su vettori diversi. Supponiamo che esistano due vettori $\Psi_A$ e $\Psi_B$ tali che
$$U \Psi_A \equiv U\pqty{\sum_k A_k \Psi_k} \equiv \sum_k A_k \Psi’_k\,\,\,\,\,\,\mathrm{e}\\
U \Psi_B \equiv U\pqty{\sum_k B_k \Psi_k} \equiv \sum_k B_k^* \Psi’_k$$
Se $\Psi_A$ e $\Psi_B$ differiscono solo per una fase, allora le due equazioni sono equivalenti, perché usando la linearità/antilinearità di $U$ possiamo semplificare la fase. Pertanto possiamo supporre che né gli $A_k$ né i $B_k$ abbiano tutti la stessa fase.
Quindi poiché $T$ è una simmetria $\abs{\braket{U\Psi_B}{U\Psi_A}}^2 = \abs{\braket{\Psi_B}{\Psi_A}}^2$, ovvero
$$\abs{\sum_k B_k A_k}^2=\abs{\sum_k B_k^* A_k}^2$$
Da questa formula, con un po’ di algebra otteniamo:
$$\sum_{kl} \Im{A_k^* A_l}\Im{B_k^* B_l}=0$$
Questa è quindi una condizione necessaria perché $U$ agisca diversamente sui due vettori.
Ora, dati due vettori qualsiasi $\Psi_A$ e $\Psi_B$, mostreremo che possiamo sempre trovare un vettore $\Psi_C$ tale che
$$\sum_{kl} \Im{C_k^* C_l}\Im{A_k^* A_l}\neq 0\\
\sum_{kl} \Im{C_k^* C_l}\Im{B_k^* B_l}\neq 0\\$$
La costruzione procede in questa maniera:
- se per qualche $k,l$ sia $A_k^* A_l$ che $B_k^* B_l$ sono entrambi complessi, cioè hanno parte immaginaria non nulla, allora possiamo scegliere tutti gli $C_i$ uguali a $0$ tranne che per $i=k, l$; poi basta scegliere $C_k$ e $C_l$ in modo che $C_k^* C_l$ abbia parte immaginaria non nulla, e abbiamo fatto.
- se invece non c’è alcuna coppia del genere, può accadere che per una qualche coppia $A_k^* A_l$ sia complesso, ma $B_k^* B_l$ sia reale. In tal caso esisterà un certo altro $B_m^* B_n$ complesso (in cui uno di $m$ o $n$ potrebbe essere uguale a $l$ o $k$). Se infatti tutte le possibili coppie $B_m^* B_n$ fossero reali, allora tutti gli $B_m$ avrebbero la stessa fase, ma in questo caso le condizioni $(3)$ e $(4)$ sono identiche, per cui non ci interessa. Ora se $A_m^* A_n$ è complesso, torniamo al caso precedente e abbiamo finito. Se invece $A_m^* A_n$ fosse reale, basta scegliere $C_i=0$ tranne per $C_k$, $C_l$, $C_m$ e $C_n$, che scegliamo in modo tale che $C_k^*C_l$ e $C_m^* C_n$ abbiano parte immaginaria non nulla, e in modo che la somma sia diversa zero.
- L’ultimo caso da considerare è quello in cui tutti gli $A_k^*A_l$ siano reali. In tal caso però tutti gli $A_k$ avrebbero la stessa fase, e questo caso non ci interessa.
Poiché la somma sui prodotti delle parti immaginarie è non nulla, concludiamo che $U$ agisce alla stessa maniera su $\Psi_A$ e $\Psi_C$, e agisce alla stessa maniera su $\Psi_B$ e $\Psi_C$. Pertanto deve anche agire alla stessa maniera su $\Psi_A$ e $\Psi_B$, e ciò conclude la dimostrazione.
Nel prossimo articolo vedremo come impostare il problema delle rappresentazioni proiettive in meccanica quantistica.
Non mi è chiaro perché assumere nell’ultimo passo della dimostrazione: “Tuttavia dati due vettori ΨA e ΨB che soddisfano questa condizione (…)”, in quanto quello che segue varrebbe indipendentemente, purché i coefficienti dello sviluppo non abbiano tutti la stessa fase
Grazie mille per il commento, è una domanda importante e non ovvia.
Consideriamo ad esempio il primo caso, in cui per qualche $k,l$ sia $A_k^* A_l$ che $B_k^* B_l$ sono complessi. Ciò non basta ad implicare che la sommatoria sul prodotto delle parti immaginarie sia non nulla, perché nella somma potremmo avere altri termini non nulli e di segno opposto che cancellano questo contributo. La stessa cosa diventa ovvia considerando un caso semplificato, ma dalla stessa essenza: consideriamo una somma qualsiasi di numeri reali, $\sum_i x_i$. Anche se $x_i \neq 0$ per un qualche $i$, o anche per tutti gli $i$, può sempre essere che la somma faccia zero in totale.
Per escludere questa possibilità utilizziamo gli $C_k$, che possiamo costruire in maniera da selezionare solo i termini che sappiamo non-nulli. A quel punto la serie ha un solo termine, che è non nullo per costruzione.
Salve,\\
grazie della delucidazione, ma in realtà non mi è chiaro questo passaggio:
dati due vettori $\psi_A$ e $\psi_B$ che soddisfano questa condizione
\begin{equation}
\label{eq:1}
\sum_{kl}Im(A_k^*A_k)Im(B_k^*B_k)
\end{equation}
lei dice che è sempre possibile trovare un vettore $\psi_C$ tale che
$$\sum_{kl}Im(A_k^*A_k)Im(C_k^*C_k)\neq0$$
$$\sum_{kl}Im(B_k^*B_k)Im(C_k^*C_k)\neq0$$
tuttavia queste ultime condizioni valgono a prescindere dalla \eqref{eq:1}; anche sul Weinberg non viene fatta questa assunzione, che mi sembra ridondante.
Grazie
Grazie per la segnalazione. Si tratta di una svista che correggerò quanto prima.