Una funzione particolarmente utile per costruire controesempi in analisi reale è la seguente:
$f(x) = \begin{cases} \exp{\left(-\frac{1}{x^2}\right)} & x \neq 0 \\ 0 & x = 0 \end{cases}$
La sua proprietà particolare è di essere infinitamente derivabile dappertutto, ma tutte le sue derivate in $0$ valgono $0$. Quindi la serie di Taylor centrata all’origine vale esattamente $0$ per ogni $x$, e quindi abbiamo un esempio di una funzione infinitamente derivabile dappertutto che non ammette serie di Taylor.
Il grafico della funzione è circa il seguente:
Come vedete la funzione è estremamente piatta attorno ad $x=0$, e ciò proprio perché tutte le sue derivate sono nulle all’origine. Ciò non vuol dire che $f(x)$ sia costante vicino a $0$, come è chiaro dalla sua definizione.
Dimostrazione della proprietà
Vogliamo dimostrare che $f(x)$ ammette infinite derivate in $x=0$ e che sono tutte nulle. Prima di tutto notiamo che per $x\neq 0$ la derivata di $f$ di ordine qualsiasi può essere calcolata esplicitamente, ed è data da $f^(n)(x) = e^{-1/x^2} P_n(1/x)$ dove $P$ è un polinomio. Possiamo quindi calcolare la derivata in $0$ usando la definizione di limite:
$$f^{(n+1)} (0) = \lim_{x\to 0} \frac{f^{(n)} (x)-f^{(n)} (0)}{x}$$
Dimostriamo per induzione che tutte le derivate sono nulle in $0$. Ciò è vero per la derivata di ordine $0$, cioè $f(x)$ stessa, per definizione. Ora supponiamo che $f^{(n)} (0)=0$. Allora ritornando alla formula sopra abbiamo
$$f^{(n+1)} (0) = \lim_{x\to 0} \frac{f^{(n)} (x)}{x} =\lim_{x\to 0} e^{-1/x^2} \frac{1}{x}P_n(1/x)=0$$
Il limite è nullo perché se $P_n(1/x)$ è un polinomio in $1/x$ allora anche $\frac{1}{x}P_n(1/x)$ è un polinomio in $1/x$. Per $x\to 0$ l’esponenziale $e^{-1/x^2}$ tende a zero molto più rapidamente di quanto il polinomio possa tendere all’infinito.
Applicazioni
Questa funzione si presta a molti controesempi in analisi ed è utile tenerla a mente. Si può anche utilizzarla per costruiree un’altra funzione particolare, detta funzione a supporto compatto. Una funzione del genere ha la proprietà di essere infinitamente derivabile dappertutto, ma di essere esattamente zero al di fuori un’intervallo.
Come esempio modifichiamo la nostra $f(x)$:
$g(x) = \begin{cases} \exp{(-\frac{1}{x^2})} & x > 0 \\ 0 & x \leq 0 \end{cases}$
La $g(x)$ è esattamente zero per $x$ negativo, e poi aumentando $x$ diventa non nulla in modo liscio, cioè mantenendo l’esistenza di tutte le derivate. Un’esempio di una funzione liscia ma zero fuori da un intervalo lo trovate su Wikipedia.
Anche i fisici devono tenere a mente che esistono funzioni del genere. Spesso infatti cerchiamo risultati tramite la teoria delle perturbazioni: approssimiamo la soluzione vera per mezzo di una serie. Se però la funzione che stiamo approssimando, pur essendo liscia, non ammette sviluppo in serie, allora lo sviluppo in serie perturbativo non funziona. Una quantità del genere è detta non perturbativa. Un tipico esempio è la capacità termica di un superconduttore come funzione della temperatura:
$$C \approx \frac{1}{T^{3/2}}e^{-1/T}$$
La funzione non è definita in zero, ma ha una singolarità rimovibile: possiamo ridefinire il suo valore in zero come il suo limite, e comunque non ammette serie di Taylor in $0$: se avessimo quindi cercato di calcolare la capacità termica perturbativamente per basse temperature, avremmo ottenuto zero ad ogni ordine. In questo caso quindi la teoria delle perturbazioni non funziona.
Singolarità e analisi complessa
Un comportamento del genere non può succedere in analisi complessa: Una funzione è analitica se ammette una serie di Taylor.
Lo strano comportamento di $f(x)$ può essere meglio compreso tramite l’analisi complessa. Una funzione è analitica se ammette una serie di Taylor. Una funzione complessa non può mostrare un comportamento del genere: ogni funzione complessa derivabile è anche analitica. Perciò la derivabilità complessa è in genere un requisito molto più forte della derivabilità reale. In questo senso l’analiticità è una proprietà naturalmente complessa che va studiata nel piano complesso.
Ad esempio la funzione
$$f(x)=\frac{1}{1+x^2}$$
è derivabile infinite volte per $x \in \mathbb{R}$, ma ha dei poli in $\mathbb{C}$ nei punti $x=\pm i$. Guardando la funzione in $\mathbb{R}$ sembrerebbe naturale che la funzione, avendo infinite derivate, sia analitica dappertutto. Invece la serie di Taylor converge solo per $\abs{x} < 1$. Ciò è naturale guardando la funzione in $\mathbb{C}$: avendo dei poli in $x=\pm i$, la funzione non è derivabile in quei punti e quindi il raggio di convergenza della serie è limitato dal valore assoluto dei poli, cioè $1$ e quindi la serie per $f(x)$ converge in $\mathbb{C}$ per $\abs{x}<1$.
Una cosa simile succede alla nostra funzione $e^{-1/x^2}$. Consideriamo la sua versione complessa, cioè $e^{-1/z^2}$. Ponendoci sull’asse immaginario, ovvero $z=iy$, la funzione diventa $e^{1/y^2}$, e questa funzione $\to \infty$ per $y\to 0$: perciò ha una singolarità in $0$. Alla stessa maniera del caso precedente, ciò implica che la serie di potenze sarà dunque convergente solo per $|z|<0$, ovvero avrà raggio di convergenza nullo e questo comportamento si riflette su $\mathbb{R}$. Per questo motivo quando si considera la convergenza di una funzione, bisogna ricordare che il dominio di convergenza è sempre un disco sul piano complesso.