In questa serie di articoli presentiamo il formalismo dei quadrivettori, utile in relatività. Si presuppone una conoscenza basilare della relatività ristretta e dell’algebra lineare.
Abbiamo lo spaziotempo con coordinate $(t,x,y,z)$. Nelle trasformazioni Galileiane, il tempo $t$ è immutabile e non si mescola con lo spazio; al contrario nelle trasformazioni di Lorentz spazio e tempo si mescolano tra loro. Perciò non ha più senso tenerli separati e invece di usare un vettore solo spaziale, ${\textbf x}=(x,y,z)$, torna utile includere una coordinata temporale, e definiamo:
$$x^\mu = \begin{pmatrix} c t \\ x \\ y \\ z \end{pmatrix} = \begin{pmatrix} c t \\ {\textbf x} \end{pmatrix}$$
dove $\mu$ è un’indice che va da $0$ a $3$, così $x^0 = ct$, $x^1=x$, ecc. Il $c$ nel tempo serve solo perché tutti gli elementi abbiano le stesse dimensioni, cioè di lunghezza. L’oggetto $x^\mu$ è chiamato quadrivettore.
A questo punto possiamo introdurre anche un altro oggetto, la derivata parziale:
$$\partial_\mu = \frac{\partial}{\partial x^\mu} = \begin{pmatrix} \frac{1}{c} \frac{\partial}{\partial t} \\ \frac{\partial}{\partial x} \\ \frac{\partial}{\partial y} \\ \frac{\partial}{\partial z} \end{pmatrix} = \begin{pmatrix} \frac{1}{c} \frac{\partial}{\partial t} \\ \nabla \end{pmatrix}$$
Ora, $x^\mu$ ha l’indice sopra, mentre $\partial_\mu$ ha l’indice sotto. C’è una differenza tra i due: $x^\mu$ è detto (quadri)vettore, $\partial_\mu$ è detto un covettore. Sono solo nomi diversi per dire “indici sopra” o “indici sotto”. (Qualcuno li chiama controvarianti e covarianti, ma è solo terminologia vecchia che non serve a niente). L’unica cosa che dovete ricordare è che c’è una differenza tra un oggetto con indici sopra e con indici sotto.
Una cosa fondamentale da apprendere subito è la convenzione di Einstein. Ogni volta che ci sono due indici ripetuti, uno sopra e uno sotto, c’è una sommatoria sottintesa, in questo senso:
$$A^\mu B_\mu = \sum_{\mu=0}^3 A^\mu B_\mu = A^0 B_0 + A^1 B_1 + A^2 B_2 + A^3 B_3$$
La convenzione di Einstein ha due regole fondamentali:
- Se ci sono più di due indici uguali ripetuti la formula è sbagliata.
- Se gli indici sono tutti e due sotto o tutti e due sopra, la formula è sbagliata.
Possiamo sommare anche più indici in una sola espressione, o averne alcuni non sommati. Ad esempio:
$$A^{\mu \nu} B_{\mu \gamma} C_\nu= \sum_{\nu=0}^3 \sum_{\mu=0}^3 A^{\mu \nu} B_{\mu \gamma} C_\nu = A^{0 0} B_{0 \gamma} C_0 + A^{0 1} B_{0 \gamma} C_1+A^{1 0} B_{1 \gamma} C_0 + \cdots$$
Capite perché questa notazione salva parecchio spazio. In questo caso $A$ e $B$ sono oggetti con due indici, ovvero “matrici”.
La matrice più semplice è la matrice identità, che chiamiamo $\delta_\nu^\mu$:
$$\delta_\nu^\mu = \begin{pmatrix}
1 & 0 & 0 & 0\\
0 & 1 & 0 & 0\\
0 & 0 & 1 & 0\\
0 & 0 & 0 & 1\\
\end{pmatrix}$$
In termini di indici $\delta_\nu^\mu = 1$ se $\mu=\nu$ e $0$ se $\mu\neq\nu$. È anche chiamata “delta di Kronecker“. Ha lo stesso effetto della matrice identità:
$$x^\mu = \delta_\nu^\mu x^\nu = x^\mu$$
In quest’ultima formula, la somma è sottintesa, come abbiamo appena visto. In termini più espliciti,
$$x^0 = \delta_\nu^0 x^\nu = \underbrace{\delta_0^0}_{=1} x^0+\underbrace{\delta_1^0}_{=0} x^1+\underbrace{\delta_2^0}_{=0} x^2+\underbrace{\delta_3^0}_{=0} x^3=x^0$$
e così via per gli altri componenti. Si può pensare a questa operazione come una moltiplicazione tra una matrice e un vettore espressa in termini di indici. Nel secondo passaggio stiamo sommando lungo l’indice $\nu$; poiché $\delta_\nu^\mu = 0$ se $\mu\neq\nu$ l’unico indice che si salva nella somma è $\mu$.
Un’altra matrice importante è un oggetto particolare che chiamiamo metrica:
$$\eta_{\mu \nu} = \begin{pmatrix}
-1 & 0 & 0 & 0\\
0 & 1 & 0 & 0\\
0 & 0 & 1 & 0\\
0 & 0 & 0 & 1\\
\end{pmatrix}$$
La metrica è importante perché possiamo usarla per alzare e abbassare gli indici nella maniera seguente:
$$x_\mu = \eta_{\mu \nu} x^\nu = \begin{pmatrix} -c t \\ {\textbf x} \end{pmatrix}$$
come potete verificare esplicitamente. Questo vale come definizione di $x_\mu$, cioè di $x$ con gli indici sotto. Niente di speciale, solo moltiplicazione tra una matrice e un vettore. Per fortuna la metrica è diagonale quindi è facile farci i conti.
Sappiamo quindi passare da indici sopra a indici sotto, cioè sappiamo abbassare gli indici. Per fare il contrario, cioè per alzare gli indici, usiamo la metrica con gli indici sopra, cioè $\eta^{\mu \nu}$. Poiché $\eta^{\mu \nu}$ e $\eta_{\mu \nu}$ hanno indici in posizioni diverse sono oggetti in linea di principio diversi. Possiamo provare ad alzare e abbassare gli indici in successione:
$$x^\mu = \eta^{\mu \nu} x_\nu = \eta^{\mu \nu} \eta_{\nu \gamma} x^\gamma $$
Notiamo che dobbiamo usare un indice $\gamma$: se avessi messo di nuovo $\mu$ avrei sottinteso un’altra sommatoria che non dovrebbe esserci. Quindi vediamo che il prodotto (matriciale) tra $\eta$ con gli indici sotto e $\eta$ con gli indici sopra agisce come la delta di Kronecker, ovvero come l’identità:
$$\eta^{\mu \nu} \eta_{\nu \gamma} = \delta_{\gamma}^{\mu}$$
Ovvero in termini di moltiplicazione tra matrici, $\eta^{\mu \nu}$ moltiplicata con $\eta_{\mu \nu} $ da l’identità, cioè $\eta^{\mu \nu}$ è l’inversa di $\eta_{\mu \nu}$. Per fortuna stiamo trattando matrici diagonali, quindi:
$$\eta^{\mu \nu} = \begin{pmatrix}
-1 & 0 & 0 & 0\\
0 & 1 & 0 & 0\\
0 & 0 & 1 & 0\\
0 & 0 & 0 & 1\\
\end{pmatrix}$$
che è la stessa matrice che rappresentava $\eta_{\mu \nu}$.
Attenzione: si potrebbe essere tentati di dire che $\eta_{\mu \nu}$ e $\eta^{\mu \nu}$ siano uguali. Ciò è sbagliato. I due oggetti sono rappresentati dalla stessa matrice, ma hanno uno gli indici sotto e l’altro gli indici sopra e quindi sono concettualmente distinti. Quando scriviamo “$=$” nelle formule sopra, ciò che intendiamo veramente è “rappresentato da”, ma per semplicità scriviamo solo “$=$”. Non tenere a mente questa distinzione è causa di errori.
Adesso possiamo ad esempio ottenere la derivata parziale con l’indice sopra:
$$\partial^\mu = \eta^{\mu \nu} \ \partial_\nu = \begin{pmatrix} -\frac{1}{c} \frac{\partial}{\partial t} \\ \nabla \end{pmatrix}$$
Da notare che tutti questi segni negativi sono difficili da ricordare e poco utili. In termini concreti ciò significa che $x$ è “naturalmente” un vettore (indici sopra), mentre $\partial$ è “naturalmente” un covettore (indici sotto), ed è così che dobbiamo ricordarli. Tutte le altre forme sono forme derivate.
Possiamo anche calcolare la “lunghezza” di un vettore:
$$x_\mu x^\mu= \eta_{\nu \mu} x^\nu x^\mu = -c^2 t^2 + x^2 + y^2 + z^2$$
Questo è nient’altro che l’intervallo invariante in relatività ristretta. È per questo motivo che scegliamo la metrica in questa maniera.
Appunto laterale: Perché è questa la “lunghezza” del vettore? In $\mathbb{R}^3$ la lunghezza del vettore è il prodotto con se stesso, ${\textbf x} \cdot {\textbf x}$. In relatività dobbiamo poter esprimere questo prodotto in termini di indici; poiché abbiamo solo $x$, l’unico modo di combinarlo con se stesso è di fare il prodotto di $x$ con indice sopra e $x$ con indice sotto, poiché nessun altro è ammesso dalle regole.
Secondo appunto laterale: La differenza tra spazio euclideo e spazio relativistico (di Minkowski) sta in quel $-1$ che troviamo nella metrica. Nello spazio euclideo la metrica sarebbe identica alla matrice identità, e quindi non comparirebbero i $-1$ quando alziamo e abbassiamo vettori e covettori, e quindi non ci preoccupiamo di distinguerli. Pertanto anche la lunghezza di un vettore diventerebbe il solito teorema di Pitagora: $x_\mu x^\mu = c^2 t^2 + x^2 + y^2 + z^2$.
Nel secondo articolo dell’introduzione spiegheremo come rappresentare le trasformazioni di Lorentz e come cambiano i concetti di velocità ed accelerazione, oltre a dare una prospettiva più generale su tutta questa faccenda.
grazie! Sto leggendo l “Fondamenti” di Einstein e, francamente, bisogna proprio capire riga per riga.