RebC's Archive
📘 Capitolo 4 — Il problema della diagonalizzazione

4.1 Diagonalizzabilità

\([...]\) “I don’t know,” Tengo said. “But it does seem to have been built by human beings long before. Maybe the people left for some reason – say, they all died in an epidemic – and the cats came to live there.” His father nodded. “When a vacuum forms, something has to come along to fill it. Because that’s what everybody does.”
“That’s what everybody does?”
“Exactly.”
“What kind of vacuum are you filling?”
His father scowled. His long eyebrows came down to hide his eyes. Then he said with a touch of sarcasm in his voice, “Don’t you know?”
“I don’t know,” Tengo said.
His father’s nostrils flared. One eyebrow rose slightly. This was the expression he always used when he was dissatisfied with something. “If you can’t understand it without an explanation, you can’t understand it with an explanation.”
Tengo narrowed his eyes, trying to read the man’s expression. Never once had his father employed such odd, suggestive language. He always spoke in concrete, practical terms. To say only what was necessary when necessary: that was his unshakable definition of a conversation. But there was no expression on his face to be read.
“I see. So you are filling in some kind of vacuum,” Tengo said. “All right, then, who is going to fill the vacuum that you have left behind?” “You,” his father declared, raising an index finger and thrusting it straight at Tengo. “Isn’t it obvious? I have been filling in the vacuum that somebody else made, so you will fill in the vacuum that I have made. Like taking turns.”
“The way the cats filled in the town after the people were gone.” \([...]\)

— Haruki Murakami, 1Q84, edizione inglese

L’algebra lineare si distingue per la sua capacità di rivelare la struttura profonda degli spazi vettoriali e delle trasformazioni che su di essi operano. Tra i temi più affascinanti e di più ampio respiro, si colloca il problema della diagonalizzazione delle matrici, una questione che unisce eleganza formale a un’incredibile potenza applicativa. L’essenza di tale problema è la ricerca di un’opportuna trasformazione che permetta di rappresentare una matrice in una forma che, pur mantenendo intatti tutti i suoi effetti matematici, ne renda la struttura più semplice, più trasparente, e quindi più facile da manipolare.

Si immagini di trovarsi di fronte a una matrice quadrata \(A\), composta da numeri disposti in una griglia rettangolare, la quale agisce su uno spazio vettoriale. Questo spazio, nella sua rappresentazione originale, appare come un intricato arazzo di vettori interconnessi. La diagonalizzazione è il processo che consente di raddrizzare questo arazzo, trovando una nuova base di vettori, lungo le quali l’azione della matrice è ridotta alla sua forma più semplice, in cui ogni vettore viene moltiplicato solamente per uno scalare — chiamato autovalore.

L’idea fondamentale di questa trasformazione è che la matrice diagonale possiede una struttura elementare: tutti gli elementi fuori dalla diagonale principale si annullano. Questa semplificazione consente di ridurre operazioni complesse a calcoli elementari. Si pensi, ad esempio, al calcolo delle potenze di una matrice – se la matrice è diagonale, l’elevamento a potenza di \(A\) si riduce a un semplice elevamento delle singole voci sulla diagonale – o al calcolo dei determinanti.

4.1.1 Autovalori, autovettori e polinomio caratteristico

Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale e sia \(f\) un endomorfismo di \(V\). Uno scalare \(\lambda\) si dice autovalore di \(f\) se esiste un vettore non nullo \(v\in V\) tale che \(f(v)=\lambda v\).
In tal caso tale vettore \(v\) si dice autovettore di \(f\) di autovalore \(\lambda\).
Il sottospazio vettoriale \(E(\lambda)=\{ v \in V \mid f(v)=\lambda v \}\) si dice autospazio di \(f\) relativo all’autovalore \(\lambda\).

Tali definizioni sono assai potenti, dacché esibiscono il fatto che in un certo endomorfismo un insieme di vettori resta fisso e viene solamente scalato.

Il termine autovettore deriva dal prefisso greco auto-, che significa “se stesso”, e dal sostantivo vettore, nel contesto dell’algebra lineare. Esso indica un vettore che, se trasformato da un’applicazione lineare, viene semplicemente moltiplicato per uno scalare, restando dunque “in direzione invariata”. In altre parole, il vettore è “proprio di se stesso” sotto l’azione dell’operatore.

Nella letteratura matematica di lingua tedesca, si usa il termine Eigenvektor, introdotto nel XIX secolo, ove il prefisso eigen- significa “proprio”, “caratteristico”. Da qui deriva anche il termine “valore proprio” per indicare l’autovalore (in tedesco: Eigenwert).

Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale a dimensione finita e sia \(f\) un endomorfismo di \(V\), allora \(\lambda\) è un autovalore di \(f\) se e solo se \[\boxed{\det (f -\lambda id_V)=0}\].

Dimostrazione. Sia \(\lambda \in \mathbb{K}\). Per definizione, \(\lambda\) è un autovalore di \(f\) se e solo se esiste un vettore \(v \in V\), con \(v \ne 0\), tale che \[f(v) = \lambda v.\] Ciò equivale a scrivere: \[f(v) - \lambda v = 0 \quad \Longleftrightarrow \quad (f - \lambda\, id_V)(v) = 0.\] Pertanto, l’esistenza di un autovettore non nullo \(v\) equivale a dire che il nucleo di \(f - \lambda\, id_V\) è non banale, ovvero: \[\ker(f - \lambda\, id_V) \ne \{0\}.\] Questo implica che l’operatore \(f - \lambda\, id_V\) non è iniettivo e dunque non è invertibile.

Ma un endomorfismo rappresentato da una matrice quadrata rispetto a una base è invertibile se e solo se il suo determinante è diverso da zero. Ne segue che: \[\det(f - \lambda\, id_V) = 0.\]

Viceversa, se \(\det(f - \lambda\, id_V) = 0\), allora l’operatore non è invertibile, dunque non è iniettivo, e quindi esiste un vettore \(v \ne 0\) tale che \[(f - \lambda\, id_V)(v) = 0 \quad \Longleftrightarrow \quad f(v) = \lambda v,\] cioè \(v\) è un autovettore di \(f\) associato a \(\lambda\), il che mostra che \(\lambda\) è un autovalore. 0◻

Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale a dimensione finita e sia \(f\) un endomorfismo di \(V\), allora \(\det (f-\lambda id_V)\) è un polinomio nell’indeterminata \(\lambda\) a coefficienti in \(\mathbb{K}\) di grado pari alla dimensione di \(V\). Tale polinomio si dice polinomio caratteristico di \(f\):

\[\boxed{P_f(\lambda)=\det (f-\lambda id_V)}\].

Questa definizione è essenziale dato che le radici, \(P_f(\lambda)=0\), di tale polinomio sono gli autovalori dell’endomorfismo.

L’insieme degli autovalori dell’endomorfismo è detto spettro.

Esempio. Sia \(V \equiv \mathbb{R}^3\) e sia \[A = \begin{pmatrix} 2 & -1 & -1 \\ 2 & -1 & -1 \\ 1 & -1 & 0 \end{pmatrix},\] la matrice associata a un’applicazione lineare \(\ell_A : \mathbb{R}^3 \to \mathbb{R}^3\), rispetto alla base canonica \(\mathcal{E} = \{e_1, e_2, e_3\}\). Si ha quindi: \[A = M^\mathcal{E}_\mathcal{E}(\ell_A),\] cioè \(A\) è la matrice rappresentativa di \(\ell_A\) in base canonica.

Il polinomio caratteristico dell’applicazione lineare \(\ell_A\), o equivalentemente della matrice \(A\), è dato da: \[P_{\ell_A}(\lambda) = \det(A - \lambda I),\] ove \(I\) è la matrice identità \(3 \times 3\).

Si calcola\(A - \lambda I\): \[A - \lambda I = \begin{pmatrix} 2 - \lambda & -1 & -1 \\ 2 & -1 - \lambda & -1 \\ 1 & -1 & -\lambda \end{pmatrix}.\]

Si calcola il determinante:

\[\begin{align*} P_{\ell_A}(\lambda) &= \begin{vmatrix} 2 - \lambda & -1 & -1 \\ 2 & -1 - \lambda & -1 \\ 1 & -1 & -\lambda \end{vmatrix} \end{align*}\]

\[P_{\ell_A}(\lambda) = \lambda^2-\lambda ^3\]

Si individuano le radici del polinomio caratteristico:

\[P_{\ell_A}(\lambda) = \lambda^2-\lambda ^3=0 \iff \lambda_1=0, \ \ \lambda_1=1\]

Lo spettro di \(\ell_A\) è dunque \(\operatorname{Spec}(\ell_A)=\{0,1\}\).

Si individuano poi gli autospazi relativi agli autovalori:

\(E(1)=\{v \in V \mid f(v)=1v\} \implies v \in \ker (f-1id_V)\), quindi è necessario individuare lo spazio delle soluzioni del sistema \((A-1I)X=0\)

\[\left(\begin{pmatrix} 2 & -1 & -1 \\ 2& -1 & -1\\ 1& -1& 0 \end{pmatrix}-\begin{pmatrix} 1 & & \\ & 1 & \\ & &1 \end{pmatrix} \right)X=0 \iff \begin{pmatrix} 1 & -1 & -1 \\ 2& -2 & -1\\ 1& -1& -1 \end{pmatrix}X=0\]

Dato che il nucleo non deve essere banale, il rango non può essere massimo; bisogna ottenere una matrice singolare tramite l’eliminazione di Gauss.

\[\begin{pmatrix} 1 & -1 & -1 \\ 2& -2 & -1\\ 1& -1& -1 \end{pmatrix} \sim \begin{pmatrix} 1 & -1 & -1 \\ 2& -2 & -1\\ 0& 0& 0 \end{pmatrix} \sim \ ....\implies\]

\[E(1)=Span\{(1,1,0)\}\].

Allo stesso modo si individua \(E(0)\):

\(E(0)=\{v \in V \mid f(v)=0v\} \implies v \in \ker (f-0id_V)\)

\(\ker \begin{pmatrix} 2 & -1 & -1 \\ 2& -1 & -1\\ 1& -1& 0 \end{pmatrix}=Span\{(1,1,1)\}=E(0)\)

Osservazione: In generale, \(0\) è un autovalore se e solo se l’endomorfismo non è iniettivo.

Gli autovettori relativi agli autovalori \(0\) e \(1\) sono dunque, rispettivamente, \((1,1,1)\) e \((1,1,0\).

Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale a dimensione finita e sia \(f\) un endomorfismmo di \(V\). Allora, \(f\) si dice diagonalizzabile se esiste una base di \(V\) costituita da autovettori di \(f\).

Nota: Se \(\mathcal{B}\) è una base di \(V\) costituita da autovettori di \(f\), allora \(M^{\mathcal{B}}_\mathcal{B}(f)\) è diagonale. Sulla diagonale sono presenti gli autovalori dell’endomorfismo, infatti spesso, tale matrice, è indicata con \(\Lambda\).

\[\mathcal{B}\equiv(\underbrace{v_1}_{\in E(\lambda_1)}, \dots, \underbrace{v_n}_{\in E(\lambda_n)}) \quad \implies \Lambda=\begin{pmatrix} \lambda_1 & & \\ & \ddots & \\ & & \lambda_n \end{pmatrix}\]

Una base di \(V\) costituita da autovettori di \(f\) si dice base diagonalizzante. Infatti, diagonalizzare un endomorfismo, significa individuare una base diagonalizzante.

Esempio. \(\ell_A\) dell’esempio precedente è diagonalizzabile? No, perchè non è possibile costituire una base di \(\mathbb{R}^3\) dato che \(\dim E(0)+\dim E(1) \ne 3=\dim V\).

Esempio. Sia \(A=\begin{pmatrix} 1 & 1\\ 1& -1 \end{pmatrix}\) e sia \(\ell_A : \mathbb{R}^2 \to \mathbb{R}^2\).
Il polinomio caratteristico è \(P_{\ell_A}(\lambda)=\lambda^2-2\).

Lo spettro dell’endomorfismo è \(\operatorname{Spec}(\ell_A)=\{\pm \sqrt{2}\}\)

Gli autospazi relativi agli autovalori di \(\ell_A\) sono:

\[E(\sqrt{2})=\ker\begin{pmatrix} 1-\sqrt{2} & 1\\ 1& -1-\sqrt{2} \end{pmatrix}= Span \{(1+\sqrt{2}, 1)\}\]

\[E(-\sqrt{2})=\ker\begin{pmatrix} 1+\sqrt{2} & 1\\ 1& -1+\sqrt{2} \end{pmatrix} =Span\{(1-\sqrt{2},1)\}\]

La base diagonalizzante è dunque \[\mathcal{B}\equiv \left( \begin{pmatrix} 1+\sqrt{2} \\ 1 \end{pmatrix}, \begin{pmatrix} 1-\sqrt{2} \\ 1 \end{pmatrix} \right)\].

La matrice associata a tale base è quindi \[M^\mathcal{B}_\mathcal{B}(f)=\Lambda=\begin{pmatrix} \sqrt{2} & 0 \\ 0& -\sqrt{2} \end{pmatrix}\] Nota: Si presti attenzione all’ordine degli autovalori sulla diagonale.
Le matrici \(\Lambda\) e \(A\) sono simili, ciò implica che esiste una matrice \(C\) invertibile tale che \(\Lambda=C^{-1}AC\), in questo caso si ha che \[\Lambda=(M^\mathcal{B}_\mathcal{E}(id_{\mathbb{R}^2}))^{-1}(M^\mathcal{E}_\mathcal{E}(f))(M^\mathcal{B}_\mathcal{E}(id_{\mathbb{R}^2}))\]

Nota. \(\ell_A\) è diagonalizzabile se e solo se \(A\) è simile a una matrice diagonale.

Esercizio. Rappresentare l’endomorfismo sul piano cartesiano evidenziandone gli autovettori.

Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale e sia \(f : V \to V\) un endomorfismo. Siano \(\lambda_1, \dots, \lambda_k \in \mathbb{K}\) autovalori distinti di \(f\), e siano \(v_1, \dots, v_k \in V\) tali che \[v_i \in E(\lambda_i) = \ker(f - \lambda_i \, id_V) \quad \text{per ogni } i = 1, \dots, k.\] Allora, se \[v_1 + \dots + v_k = 0,\] si ha necessariamente \[v_1 = \dots = v_k = 0.\] In particolare, vettori appartenenti ad autospazi relativi ad autovalori distinti sono linearmente indipendenti.

Dimostrazione. Si procede per induzione su \(k\), il numero di vettori appartenenti ad autospazi associati ad autovalori distinti.

Caso base: se \(k = 1\), l’ipotesi \(v_1 = 0\) segue immediatamente da \(v_1 = 0\), quindi la tesi è ovvia.

Passo induttivo: si supponga vera l’affermazione per \(k-1\), e si dimostri per \(k\). Sia quindi \[v_1 + v_2 + \dots + v_k = 0,\] con \(v_i \in E(\lambda_i)\) per ogni \(i = 1, \dots, k\), e \(\lambda_1, \dots, \lambda_k\) a due a due distinti.

Si applica l’operatore \(f - \lambda_k \, id_V\) a entrambi i membri: \[\begin{align*} 0 &= (f - \lambda_k \, id_V)(v_1 + \dots + v_k) \\ &= (f - \lambda_k)(v_1) + \dots + (f - \lambda_k)(v_k) \\ &= (\lambda_1 - \lambda_k)v_1 + \dots + (\lambda_{k-1} - \lambda_k)v_{k-1} + (\lambda_k - \lambda_k)v_k \\ &= (\lambda_1 - \lambda_k)v_1 + \dots + (\lambda_{k-1} - \lambda_k)v_{k-1}. \end{align*}\]

Per ipotesi induttiva, poiché \(\lambda_i \ne \lambda_k\) per ogni \(i < k\), i coefficienti \(\lambda_i - \lambda_k\) sono tutti non nulli. Segue che \[v_1 = v_2 = \dots = v_{k-1} = 0.\] Sostituendo nell’uguaglianza iniziale \(v_1 + \dots + v_k = 0\), si ottiene \(v_k = 0\).

Dunque, per induzione su \(k\), segue che \(v_1 = \dots = v_k = 0\).

0◻

Sia \(V\) uno \(\mathbb{K}\)–spazio vettoriale di dimensione finita, e sia \(f: V \to V\) un endomorfismo. Sia \(\operatorname{Spec}(f) = \{\lambda_1, \dots, \lambda_k\}\) l’insieme degli autovalori di \(f\). Allora, \(f\) è diagonalizzabile se e solo se \[\dim E(\lambda_1) + \dots + \dim E(\lambda_k) = \dim V.\]

Equivalente a dire che: \[V = E(\lambda_1) \oplus \dots \oplus E(\lambda_k),\] cioè lo spazio \(V\) si scrive come somma diretta degli autospazi associati ad autovalori distinti.

In particolare, valgono le seguenti osservazioni:

  • Gli autospazi \(E(\lambda_1), \dots, E(\lambda_k)\) sono sempre linearmente indipendenti due a due, anche se \(f\) non è diagonalizzabile.

  • \(f\) è diagonalizzabile se e solo se \[V = E(\lambda_1) + \dots + E(\lambda_k),\] ovvero la somma degli autospazi è l’intero spazio \(V\).

  • Ciò equivale alla condizione: \[\dim E(\lambda_1) + \dots + \dim E(\lambda_k) = \dim V.\]

Esempio. Sia \(A=\begin{pmatrix} 1 &-1 &2 \\ -1& 1 &-2 \\ 2&-2 &4 \end{pmatrix} \in M_3(\mathbb{R})\) e sia \(\ell_A: \mathbb{R}^3 \to \mathbb{R}^3\). Si ha che \(\operatorname{Spec}(\ell_A)=\{0,6\}\) e che \[E(0)=Span\{(1,1,0),(-2,0,1)\}\] \[E(6)=Span\{(\frac{1}{2},-\frac{1}{2},1)\}\]

Per la proposizione appena data, i vettori sono linearmente indipendenti e quindi costituiscono una base diagonalizzante.

\[\mathcal{B}\equiv \left( \begin{pmatrix} 1 \\ 1\\ 0 \end{pmatrix}, \begin{pmatrix} -2 \\ 0 \\ 1 \end{pmatrix}, \begin{pmatrix} \frac{1}{2} \\ -\frac{1}{2} \\ 1 \end{pmatrix} \right)\]

Si ha quindi che \[\Lambda=\begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0\\ 0 &0 & 6 \end{pmatrix}=\begin{pmatrix} 1 & -2 & \frac{1}{2} \\ 1 & 0 & -\frac{1}{2} \\ 0 &1 & 1 \end{pmatrix}^{-1}\begin{pmatrix} 1 & -1 &2 \\ -1& 1& -2 \\ 2& -2 & 4 \end{pmatrix} \begin{pmatrix} 1 & -2 & \frac{1}{2} \\ 1 & 0 & -\frac{1}{2} \\ 0 &1 & 1 \end{pmatrix}.\]

4.1.2 Molteplicità algebrica e molteplicità geometrica di un autovalore

Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale a dimensione finita, \(f\) un endomorfismo di \(V\) e \(\lambda\) un autovettore di \(f\).

  • La molteplicità algebrica di \(\lambda\) è la molteplicità di \(\lambda\) come radice del polinomio caratteristico \(P_f(\lambda)\).

  • La molteplicità geometrica di \(\lambda\) è la dimensione del relativo autospazio \(E(\lambda)\).

Nota. Se \(\lambda\) è un autovalore di \(f\), entrambe le molteplicità sono positive.
Esempio. La molteplicità algebrica di \(\lambda=0\) nell’esempio precedente è pari \(2\).

La molteplicità geometrica di \(\lambda\) è sempre minore o uguale alla molteplicità algebrica di \(\lambda\). \[m_g(\lambda) \leq m_a(\lambda)\]

Dimostrazione. Sia \(m:=\dim E(\lambda)\). Si sceglie una base \(\mathcal{B}=(v_1,\dots,v_m)\) di \(E(\lambda)\).

La si completa a una base \(\mathcal{B}'=(v_1, \dots, v_m, \dots, v_n)\) di \(V\).

Si ottiene che \[M^{\mathcal{B}'}_{\mathcal{B}'}(f)=\left(\begin{array}{cccc|c} \lambda_1 & 0 & \cdots & 0 &\ast \\ 0 & \lambda_2 & \cdots & 0 & \ast \\ \vdots & \vdots & \ddots & \vdots & \ast \\ 0 & 0 & \cdots & \lambda_m & \ast\\ \hline & \bigzero & & & \mathcal{B} \end{array}\right)\]

ove la matrice con gli autovalori ha dimensione \(m \times m\) e quella della base \(\mathcal{B}\), che da ora si indicherà con \(B\), ha dimensione \((n-m )\times (n-m)\).

Si individua il polinomio caratteristico \(P_f(t)=\det (M^{\mathcal{B}'}_{\mathcal{B}'}(f) -tid_n)=(\lambda-t)^n \det (B-t id_{n-m})\).

Ciò implica che \(m_a(\lambda)\geq m.\) 0◻
Nota. Se \(m_a(\lambda)=1\), allora \(m_g(\lambda)=1\).

Esempio. Sia \(A=\begin{pmatrix} \sqrt{3} & -1 \\ 1& \sqrt{3} \end{pmatrix}\) e sia \(\ell_A\) un endomorfismo di \(\mathbb{R}^2\).

Il polinomio caratteristico ha radici \(\lambda_{1,2}=\sqrt{3}\pm i\).

Poichè \(\operatorname{Spec}_{\mathbb{R}}(\ell_A)=\{ \emptyset\}\), la matrice non è diagonalizzabile su \(\mathbb{R}\).

Esercizio. La matrice nell’esempio è diagonalizzabile su \(\mathbb{C}\)?

4.1.3 Diagonalizzabilità di un endomorfismo

Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale a dimensione finita e sia \(f\) un endomorfismo di \(V\), allora \(f\) è diagonalizzabile se e solo se valgono entrambe le condizioni seguenti:

  • Il polinomio caratteristico di \(f\) ammette tutte le sue radici, contate con la rispettiva molteplicità, nel campo \(\mathbb{K}\).

  • Per ogni autovalore, la molteplicità geometrica coincide con la molteplicità geometrica, ossia \[m_a(\lambda)=m_g(\lambda)\]

Nota. Se \(P_f(\lambda)\) ammette \(n=\dim V\) radici a due a due distinte in \(\mathbb{K}\), allora \(f\) è diagonalizzabile.

Esempio. Sia \(A=\begin{pmatrix} \sqrt{3} & -1 \\ 1& \sqrt{3} \end{pmatrix}\) e sia \(\ell_A\) un endomorfismo di \(\mathbb{C}^2\).

Il polinomio caratteristico ha radici \(\lambda_{1,2}=\sqrt{3}\pm i\).

Si ha dunque che \(\operatorname{Spec}_{\mathbb{C}}(\ell_A)=\{ \sqrt{3}\pm i\}\).

Si individuano gli autospazi

\[E(\sqrt{3}-i)=Span\{(-i,1)\}\]

\[E(\sqrt{3}+i)=Span\{(i,1)\}\]

Quindi \[\mathcal{B}\equiv \left( \begin{pmatrix} -i \\ 1 \end{pmatrix}, \begin{pmatrix} i \\ 1 \end{pmatrix}\right)\] è una base di \(\mathbb{C}^2\) diagonalizzante.

\[\begin{pmatrix} \sqrt{3}-i & 0 \\ 0& \sqrt{3}+i \end{pmatrix}=\begin{pmatrix} -i & i \\ 1& 1 \end{pmatrix}^{-1}\begin{pmatrix} \sqrt{3} & -1 \\ 1& \sqrt{3} \end{pmatrix}\begin{pmatrix} -i & i \\ 1& 1 \end{pmatrix}\]

Nota. (Galois) Sia \(A \in M_n(\mathbb{R})\) una matrice reale. Poiché \(\mathbb{R}^n \subset \mathbb{C}^n\), si può considerare l’applicazione lineare associata \(\ell_A: \mathbb{C}^n \to \mathbb{C}^n\), estendendo l’azione di \(A\) su \(\mathbb{C}^n\) per linearità.

Il polinomio caratteristico di \(\ell_A\), dato da \[P_{\ell_A}(t) = \det(A - tI) \in \mathbb{R}[t],\] è un polinomio reale di grado \(n\). Le sue radici sono reali oppure compaiono in coppie di numeri complessi coniugati.

In particolare, se \(\lambda \in \mathbb{C}\) è una radice complessa non reale di \(P_{\ell_A}(t)\), allora anche il suo coniugato \(\overline{\lambda}\) è radice del polinomio, ovvero entrambi sono autovalori complessi coniugati di \(\ell_A\).

Vale inoltre la seguente proprietà: \[v \in E(\lambda) \iff \overline{v} \in E(\overline{\lambda}),\] cioè il coniugato di un autovettore è autovettore per l’autovalore coniugato.

Infatti se \(v \in E(\lambda)\), allora \(Av = \lambda v\). Applicando il coniugio complesso a entrambi i membri, si ha: \[\overline{Av} = \overline{\lambda v} \iff \overline{A} \cdot \overline{v} = \overline{\lambda} \cdot \overline{v}.\] Poiché \(A\) ha entrate reali, \(\overline{A} = A\), dunque: \[A \cdot \overline{v} = \overline{\lambda} \cdot \overline{v} \iff \overline{v} \in E(\overline{\lambda}).\]

Sia \[f(t) = a_0 t^n + a_1 t^{n-1} + \dots + a_{n-1} t + a_n\] un polinomio a coefficienti interi, con \(a_0 \neq 0\). Allora ogni radice razionale di \(f(t)\) della forma \(\dfrac{p}{q}\), con \(p, q \in \mathbb{Z}\) e \(q > 0\) relativamente primi, soddisfa le seguenti condizioni: \[p \mid a_n \quad \text{e} \quad q \mid a_0.\]

In altre parole, il numeratore \(p\) divide il termine noto \(a_n\), e il denominatore \(q\) divide il coefficiente principale \(a_0\).

Dimostrazione. (da rivedere) Si suppone che \(\dfrac{p}{q} \in \mathbb{Q}\) sia una radice del polinomio \(f(t)\). Allora: \[f\left( \frac{p}{q} \right) = a_0 \left( \frac{p}{q} \right)^n + a_1 \left( \frac{p}{q} \right)^{n-1} + \dots + a_{n-1} \left( \frac{p}{q} \right) + a_n = 0.\]

Moltiplicando ambo i membri per \(q^n\), si ottiene: \[q^n f\left( \frac{p}{q} \right) = a_0 p^n + a_1 p^{n-1} q + a_2 p^{n-2} q^2 + \dots + a_{n-1} p q^{n-1} + a_n q^n = 0.\]

Dunque: \[a_0 p^n + a_1 p^{n-1} q + \dots + a_{n-1} p q^{n-1} + a_n q^n = 0.\]

Si osserva che tutti i termini tranne l’ultimo sono multipli di \(p\), quindi anche \(a_n q^n\) deve esserlo. Poiché \(\gcd(p, q) = 1\), si deduce che: \[p \mid a_n.\]

Analogamente, tutti i termini tranne il primo sono multipli di \(q\), quindi anche \(a_0 p^n\) deve esserlo. Dato che \(\gcd(p, q) = 1\), segue che: \[q \mid a_0.\] 0◻
Nota. Trasferendo la terminologia dagli endomorfismi alle matrici quadrate, si può asserire che una matrice \(A\in M_n (\mathbb{K)}\) è diagonalizzabile se esiste \(B \in GL_n(\mathbb{K})\) tale che \[B^{-1}AB=D\], ove \(D \in M_n(\mathbb{K})\) è una matrice diagonale, cioè se \(A\) è simile a \(D\).

Sia \(A = (a_{ij}) \in M_n(\mathbb{K})\) una matrice quadrata di ordine \(n\) a coefficienti in un campo \(\mathbb{K}\). La traccia di \(A\), indicata con \(\operatorname{Tr}(A)\), è definita come la somma degli elementi sulla diagonale principale, cioè: \[\operatorname{Tr}(A) = \sum_{i=1}^n a_{ii}.\]

Invarianti per similitudine. Due matrici simili hanno:

  • lo stesso determinante;

  • lo stesso rango;

  • lo stesso polinomio caratteristico.

Nota. Tutti i coefficienti del polinomio caratteristico sono invarianti. \[P_{\ell_A}(t)=(-1)^nt^n+a_1t^{n-1}+\dots+a_{n-1}t+a_n\], ove \[a_n=\det A\] e \[a_1=(-1)^{n-1}\operatorname{Tr}(A)\].

Però, non è vero che se \(A\) e \(B\) presentano il medesimo polinomio caratteristico esse sono simili.


4.2 Restrizioni

4.2.1 Sottospazi invarianti

Intuitivamente, un sottospazio invariante può essere concepito come uno spazio all’interno del quale ogni elemento, sottoposto ad una determinata trasformazione, rimane invariato, ossia non esce da tale dominio, restando confinato al suo interno. In altri termini, un sottospazio invariante è un insieme di vettori che, mediante l’operazione di un operatore lineare, non abbandonano mai il sottospazio originario, ma vi rimangono immutati, preservandone la struttura e le proprietà.

Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale ed \(f\) un endomorfismo di \(V\). Un sottospazio vettoriale \(U\) di \(V\) si dice \(f\)–invariante se \[\forall u \in U \ \ f(u) \in U.\]

In tal caso, è possibile restringere dominio e codominio di \(f\) e ottenere un endomorfismo di \(U\) espresso, in notazione, come \[f_{\mid U}:U \to U.\]

Esercizio. Rappresentare graficamente, nel piano cartesiano, come opera l’endomorfismo \(f_{\mid U}\).
In generale, \(\ker f\) e \(\operatorname{Im}f\) sono \(f\)–invarianti; gli autospazi \(E(\lambda):=\ker (f -\lambda id)\) sono anch’essi \(f\)–invarianti.

Inoltre, se \(U\) e \(W\) sono sottospazi vettoriali \(f\)–invarianti, lo sono anche \(U \cap W\) e \(U+W\).

Nota. Se \(U\) è \(f\)–invariantee, è anche possibile definire un endomorfismo indotto da \(f\) sul quoziente. \[f_{\sim U}: V/U \to V /U\] con \[f_{\sim U}([v]) := [f(v)].\]

Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale a dimensione finita e siano \(f\) un endomorfismo di \(V\) e \(U\) un sottospazio di \(V\) \(f\)–invariante. Il polinomio caratteristico di \(f\) si fattorizza nel prodotto del polinomio caratteristico di \(f_{\mid U}\) per il polinomio caratteristico di \(f_{\sim U}\).

Dimostrazione. Sia \(\mathcal{B} = (u_1, \dots, u_m)\) una base di \(U\). Si completa questa base in una base di \(V\), \(\mathcal{C} = (u_1, \dots, u_m, w_1, \dots , w_{n-m})\).

Si osserva che \(\mathcal{D} = \left([w_1]_{\sim U}, \dots, [w_{n-m}]_{\sim U}\right)\) è una base di \(V/U\), quindi la matrice di \(f\) rispetto alla base \(\mathcal{C}\) sarà della forma:

\[M^{\mathcal{C}}_\mathcal{C}(f) = \left( \begin{array}{c|c} M^{\mathcal{B}}_\mathcal{B}(f_{\mid U}) & \ast \\ \hline 0 & M^{\mathcal{D}}_\mathcal{D}(f_{\sim U}) \end{array} \right)\]

Considerando ora \(f - t \cdot \mathrm{id}_V\), la matrice del polinomio caratteristico di \(f\) rispetto alla base \(\mathcal{C}\) sarà:

\[M^{\mathcal{C}}_\mathcal{C}(f - t \cdot \mathrm{id}_V) = \left( \begin{array}{c|c} M^{\mathcal{B}}_\mathcal{B}(f_{\mid U} - t \cdot \mathrm{id}_U) & \ast \\ \hline 0 & M^{\mathcal{D}}_\mathcal{D}(f_{\sim U} - t \cdot \mathrm{id}_{V/U}) \end{array} \right)\]

Da ciò si deduce che il polinomio caratteristico di \(f\) si fattorizza come il prodotto dei polinomi caratteristici di \(f_{\mid U}\) e \(f_{\sim U}\), ovvero:

\[P_f(t) = P_{f_{\mid U}}(t) \cdot P_{f_{\sim U}}(t)\]

0◻

Problema: Si consideri \[f: \mathbb{R}^4 \to \mathbb{R}^4,\quad f\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix} = \begin{pmatrix} 2 & 1 & 0 & 0 \\ -1 & 1 & 1 & 0 \\ 1 & -2 & -1 & 1 \\ -1 & 2 & 0 & -2 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix}\]

Sia \[U = \left\{ \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix} \in \mathbb{R}^4 :\ x_2 + x_3 = 0,\ x_3 + x_4 = 0 \right\}.\]

Mostrare che il sottospazio \(U\) è \(f\)-invariante.
Individuare le matrici associate agli endomorfismi e i rispettivi polinomi caratteristici.
Soluzione: Per risolvere il quesito, si esprimono \(U\) come \({Span} \{u_1, u_2\}\) e si mostra che \(f(u_1), f(u_2) \in U\).

Si individua una base di \(U\).

\[\mathcal{B}=((1,0,0,0),(0,1,-1,1))\]. Si ottiene che \(f(u_1)=(2,-1,1,-1)=2u_1-u_2 \in U\) e \(f(u_2)=(1,0,0,0)=u_1 \in U\)

Poiché le immagini di \(u_1\) e \(u_2\) sono in \(U\), si conclude che \(U\) è \(f\)-invariante.

Adesso si considera \(\mathcal{B} = (u_1, u_2)\) una base di \(U\), e la si completa a una base di \(\mathbb{R}^4\), \(\mathcal{C} = (u_1, u_2, w_1, w_2)\), dove \(w_1 = e_2\) e \(w_2 = e_3\). Questo implica che \(\mathcal{D} = ([e_2], [e_3])\) è una base di \(V/U\). Si devono determinare le matrici \(M^\mathcal{B}_\mathcal{B}(f_{\mid U})\) e \(M^\mathcal{D}_\mathcal{D}(f_{\sim U})\).

Si ottiene che \[M^\mathcal{B}_\mathcal{B}(f_{\mid U}) = \begin{pmatrix} 2 & 1 \\ -1 & 0 \end{pmatrix}\]

e poiché \(f_{\sim U}(e_2) = [f(e_2)] = [(1, 1, -2, 2)]\) e \(f_{\sim U}(e_3) = [f(e_3)] = [(0, 1, -1, 0)]\), si ha che:

\[[(1, 1, -2, 2)] = -[w_1] + 0[w_2]\] e \[[(0, 1, -1, 0)] = [w_1] - [w_2].\]

Pertanto \[M^\mathcal{D}_\mathcal{D}(f_{\sim U}) = \begin{pmatrix} -1 & 1 \\ 0 & -1 \end{pmatrix}.\]

Si ottiene dunque la matrice completa \[M^{\mathcal{C}}_{\mathcal{C}}(f)=\left(\begin{array}{cc|cc} 2 & 1 & \ast & \ast \\ -1 & 0 & \ast & \ast \\ \hline 0 & 0 & -1 & 1 \\ 0 & 0 & 0 & -1 \end{array}\right)\]

Il polinomio caratteristico è dato da \[P_f(t)=P_{f_{\mid U}}(t)P_{f_{\sim U}}(t)=\begin{vmatrix} 2-t & 1 \\ -1& -t \end{vmatrix} \cdot \begin{vmatrix} -1-t & 1 \\ 0&-1 -t \end{vmatrix}=(1-t)^2(-1-t)^2.\]

Sia \(V\) uno spazio vettoriale di dimensione finita su \(\mathbb{K}\), sia \(f\) un endomorfismo di \(V\) e \(U\) un sottospazio vettoriale di \(V\) invariato da \(f\). Se \(f\) è diagonalizzabile, allora anche la sua restrizione \(f_{\mid U}\) è diagonalizzabile.

Dimostrazione. Poiché \(f\) è diagonalizzabile su \(V\), esiste una base di autovettori di \(V\), cioè \(V = E(\lambda_1) \oplus \dots \oplus E(\lambda_k)\), dove \(E(\lambda_i)\) è lo spazio degli autovettori associati all’autovalore \(\lambda_i\) di \(f\), e \(\lambda_1, \dots, \lambda_k\) sono autovalori distinti.

Sia \(u \in U\). Poiché \(f\) è diagonalizzabile, è possibile scrivere \(u\) come combinazione lineare di autovettori, cioè \[u = u_1 + u_2 + \dots + u_k \quad \text{con} \quad u_i \in E(\lambda_i).\] L’obiettivo è dimostrare che ogni \(u_i\) appartiene a \(U\), cioè \(u_1, \dots, u_k \in U\).

Induzione su \(k\):

- Base dell’induzione (\(k = 1\)): Se \(k = 1\), allora \(u = u_1 \in E(\lambda_1)\), e quindi \(u_1 \in U\), perché \(u \in U\).

- Passo induttivo: Si suppone che la tesi valga per \(k-1\), cioè che \(u_1, \dots, u_{k-1} \in U\). Si considera \(u = u_1 + u_2 + \dots + u_k\), con \(u_i \in E(\lambda_i)\), e si applica l’operatore \(f - \lambda_k \cdot \mathrm{id}_V\) a \(u\): \[(f - \lambda_k \cdot \mathrm{id}_V)(u) = (\lambda_1 - \lambda_k) u_1 + (\lambda_2 - \lambda_k) u_2 + \dots + (\lambda_{k-1} - \lambda_k) u_{k-1}.\] Poiché \(f\) è \(f\)-invariante su \(U\), ogni termine di somma \((\lambda_i - \lambda_k) u_i\) per \(i = 1, \dots, k-1\) appartiene a \(U\) per ipotesi induttiva.

In particolare, il termine \((\lambda_i - \lambda_k) u_i \in U\) per \(i = 1, \dots, k-1\), quindi \[(f - \lambda_k \cdot \mathrm{id}_V)(u) \in U.\] Ora, poiché \(f - \lambda_k \cdot \mathrm{id}_V\) è un operatore lineare, e \(U\) è \(f\)-invariante, si può concludere che anche \(u_k \in U\).

Pertanto, per induzione, \(u_1, u_2, \dots, u_k \in U\), e così \(u \in U\) per ogni \(u \in U\).

Poiché ogni vettore in \(U\) può essere scritto come una combinazione lineare di autovettori di \(f\), la restrizione \(f_{\mid U}\) è diagonalizzabile.

0◻

4.2.2 Diagonalizzazione simultanea

Siano \(f, g \in \operatorname{End}(V)\) due endomorfismi che commutano, ossia \(f \circ g = g \circ f\). Allora il nucleo e l’immagine di \(f\) sono invarianti per \(g\), e viceversa.

Dimostrazione. Sia \(f, g \in \operatorname{End}(V)\) e si supponga che commutino, cioè \(f \circ g = g \circ f\).

Poiché la dimostrazione è simmetrica, la stessa argomentazione vale anche per il nucleo e l’immagine di \(g\), ovvero \(\ker(g)\) e \(\operatorname{Im}(g)\) sono invarianti sotto \(f\). 0◻
Nota. In generale, non è vero che i sottospazi \(f\)-invarianti siano sempre anche \(g\)-invarianti. Tuttavia, per gli autospazi è sempre vero che gli autospazi di \(f\), ossia \(E(\lambda) = \ker(f - \lambda \cdot \mathrm{id})\), sono anche invarianti sotto \(g\), qualora \(f\) e \(g\) commutino.

Sia \(V\) uno spazio vettoriale di dimensione finita su \(\mathbb{K}\), e siano \(f\) e \(g\) due endomorfismi di \(V\). Essi sono simultaneamente diagonalizzabili se e solo se sono diagonalizzabili e commutano.

Dimostrazione. (Diretta) Se \(f\) e \(g\) sono simultaneamente diagonalizzabili, allora commutano perchè le loro matrici rispetto a una base diagonalizzante sono entrambe diagonali. Infatti, se \(A\) e \(B\) sono due matrici diagonali, il loro prodotto è commutativo: \[A \cdot B = B \cdot A.\] Pertanto, se \(f\) e \(g\) sono simultaneamente diagonalizzabili, allora \(f \circ g = g \circ f\), ossia \(f\) e \(g\) commutano.

\[\begin{pmatrix} \lambda_1 & & \\ & \ddots & \\ & & \lambda_n \end{pmatrix} \cdot \begin{pmatrix} \mu_1 & & \\ & \ddots & \\ & & \mu_n \end{pmatrix} = \begin{pmatrix} \mu_1 & & \\ & \ddots & \\ & & \mu_n \end{pmatrix} \cdot \begin{pmatrix} \lambda_1 & & \\ & \ddots & \\ & & \lambda_n \end{pmatrix}.\]

(Inversa) Viceversa, se \(f\) e \(g\) commutano, gli autospazi di \(f\) sono \(g\)-invarianti. Questo implica che le restrizioni di \(g\) agli autospazi di \(f\) sono tutte diagonalizzabili, e quindi \(f\) e \(g\) sono simultaneamente diagonalizzabili.

0◻

Problema. Siano \(A=\begin{pmatrix} -1& 0 & 0 \\ 1& -2 & 1 \\ 2 & -2 & 1 \end{pmatrix}\) e \(B=\begin{pmatrix} -1& 2 & -1 \\ -3& 4 & -1 \\ 0 & 0 & 2 \end{pmatrix}\) entrambe in \(M_3(\mathbb{R})\).
Diagonalizzare simultaneamente \(A\) e \(B\).
Soluzione. Per risolvere il quesito è necessario individuare una base di \(\mathbb{R}^3\) diagonalizzante per entrambe.

Si osserva che \(AB = BA\), quindi le matrici \(A\) e \(B\) sono commutanti e ammettono una base comune di autovettori.
Per diagonalizzare entrambe le matrici, bisogna prima determinare i polinomi caratteristici \(P_A(t)\) e \(P_B(t)\).

Il polinomio caratteristico di \(A\) è dato da \[P_A(t) = \det(A - tI) = \det \begin{pmatrix} -1-t & 0 & 0 \\ 1 & -2-t & 1 \\ 2 & -2 & 1-t \end{pmatrix}=-2t^2-t^3-t=-t(-1-t)^2.\]

Analogamente, il polinomio caratteristico di \(B\) è: \[P_B(t) = \det(B - tI) = \det \begin{pmatrix} -1-t & 2 & -1 \\ -3 & 4-t & -1 \\ 0 & 0 & 2-t \end{pmatrix}=4-8t+5t^2-t^3=(2-t)^2(1-t).\]

Si individuano gli autospazi

\[E_A(0)=Span \{(0,1,2)\}\] \[E_A(-1)=Span \{(1,1,0),(0,1,1)\}\] \[E_B(2)=Span \{(2,3,0),(0,1,2)\}\] \[E_B(1)=Span \{1,1,0)\}\].

Si nota che

  • \(E_A(0) \subset E_B(2)\), quindi \(E_A(0)\) è autospazio simultaneo di \(A\) e \(B\);

  • \(E_B(1)\subset E_A(-1)\), quindi \(E_B(1)\) è autospazio simultaneo di \(A\) e \(B\);

  • \(E_B(2)\cap E_A(-1)\) è un altro autospazio simultaneo, ma va individuato.

Una base che diagonalizza simultaneamente sia \(A\) che \(B\) è data da tre vettori \(v_1, \dots, v_3\) che appartengono rispettivamente ai tre autospazi appena elencati.

Esercizio. Completare il problema.

La quarta unità del corso è conclusa. Buona parte degli esercizi che seguono sono tratti da Algebra Lineare e Geometria di Kieran G. O’Grady e dal Foglio 5 del corso di Algebra Lineare 2024–2025 tenuto dai professori Paolo Bravi e Simone Diverio.


Esercizi

1

Sia \(V\) uno spazio vettoriale su un campo \(\mathbb{K}\), \(f: V \to V\) un endomorfismo e \(U \subseteq V\) un sottospazio vettoriale \(f\)-invariante, cioè tale che:

\[\forall u \in U,\quad f(u) \in U.\]

Allora la restrizione \(f|_U: U \to U\) è un endomorfismo di \(U\).

  • Mostrare che \(f\) induce anche un endomorfismo dello spazio quoziente \(V / U\) dato da: \[f_{\sim U} : V/U \to V/U, \quad f_{\sim U} ([v]) = [f(v)],\] verificando che tale applicazione è ben definita e lineare.

Consideriamo ora il seguente esempio concreto:

\[f: \mathbb{R}^4 \to \mathbb{R}^4,\quad f\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix} = \begin{pmatrix} 2 & 1 & 0 & 0 \\ -1 & 1 & 1 & 0 \\ 1 & -2 & -1 & 1 \\ -1 & 2 & 0 & -2 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix}\]

Sia \[U = \left\{ \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix} \in \mathbb{R}^4 :\ x_2 + x_3 = 0,\ x_3 + x_4 = 0 \right\}.\]

  • Mostrare che il sottospazio \(U\) è \(f\)-invariante.

  • Scegliere una base \(\mathcal{B}\) di \(U\) e scrivere la matrice associata a \(f|_U\) rispetto alla base \(\mathcal{B}\).

  • Scegliere una base \(\mathcal{C}\) di \(V / U\) e scrivere la matrice associata a \(f_{\sim U}\) rispetto alla base \(\mathcal{C}\).

2

Siano \(\vec{v}_1, \vec{v}_2, \vec{v}_3 \in \mathbb{R}^3\) tre vettori colonna tali che la matrice quadrata \(A = (\vec{v}_1\ \vec{v}_2\ \vec{v}_3)\), ottenuta mettendo nelle colonne i vettori \(\vec{v}_1, \vec{v}_2, \vec{v}_3\), abbia determinante:

\[\det(A) = -5.\]

Calcolare il determinante della matrice: \[B = (\vec{v}_1 + \vec{v}_2\quad 3\vec{v}_2 - \vec{v}_3\quad \vec{v}_3)\]

ottenuta mettendo nelle colonne i vettori \(\vec{v}_1 + \vec{v}_2\), \(3\vec{v}_2 - \vec{v}_3\) e \(\vec{v}_3\).

3

Per ognuna delle seguenti matrici \(A \in M_{3 \times 3}(\mathbb{R})\), si chiede di:

  1. determinare se \(A\) è diagonalizzabile su \(\mathbb{R}\);

  2. determinare se \(A\) è diagonalizzabile su \(\mathbb{C}\);

  3. in caso affermativo, determinare una matrice invertibile \(M\) tale che \(M^{-1} A M\) sia diagonale.

Le matrici proposte sono:

\[A_1 = \begin{pmatrix} 1 & -1 & 0 \\ -1 & 0 & 1 \\ 0 & 1 & -1 \end{pmatrix}, \quad A_2 = \begin{pmatrix} 0 & 1 & 1 \\ -1 & 0 & 1 \\ -1 & -1 & 0 \end{pmatrix}, \quad A_3 = \begin{pmatrix} 0 & 2 & -3 \\ 1 & 0 & 2 \\ 1 & -1 & 3 \end{pmatrix},\] \[A_4 = \begin{pmatrix} 1 & 2 & -1 \\ -1 & 4 & -1 \\ 1 & -2 & 3 \end{pmatrix}, \quad A_5 = \begin{pmatrix} 1 & 0 & -1 \\ 2 & -1 & 0 \\ 2 & -2 & 1 \end{pmatrix}\]

4

Sia \(V\) lo spazio vettoriale dei polinomi in una variabile reale \(t\) di grado minore o uguale a 2, ossia: \[V = \{ p(t) \in \mathbb{R}[t] \mid \deg(p) \leq 2 \}.\] Si consideri l’endomorfismo \(f: V \to V\) definito da \[f(p(t)) = t \cdot p'(t),\] dove \(p'(t)\) è la derivata di \(p(t)\). Determinare gli autovalori reali di \(f\) e i relativi autospazi.

5

Calcolare il determinante dell’endomorfismo \[f: M_{2 \times 2}(\mathbb{R}) \to M_{2 \times 2}(\mathbb{R})\] definito da \[f(X) = A X A^{-1},\] dove \[A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix}.\]

Determinare inoltre gli autovalori reali e i relativi autospazi dell’endomorfismo \(f\).

6

Si consideri l’endomorfismo di \(\mathbb{C}^4\) tale che:

\[\begin{pmatrix} 1 \\ 0 \\ 1 \\ 0 \end{pmatrix} \mapsto \begin{pmatrix} 0 \\ 1 \\ 0 \\ 1 \end{pmatrix}, \quad \begin{pmatrix} 1 \\ 0 \\ 0 \\ 1 \end{pmatrix} \mapsto \begin{pmatrix} 0 \\ 1 \\ -1 \\ 0 \end{pmatrix}, \quad \begin{pmatrix} 0 \\ 1 \\ 1 \\ 0 \end{pmatrix} \mapsto \begin{pmatrix} -1 \\ 0 \\ 0 \\ 1 \end{pmatrix}, \quad \begin{pmatrix} 0 \\ -1 \\ 0 \\ 1 \end{pmatrix} \mapsto \begin{pmatrix} 1 \\ 0 \\ -1 \\ 0 \end{pmatrix}.\]

Determinare gli autovalori, i relativi autospazi e dire se l’endomorfismo è diagonalizzabile.

7

Sia \(V\) un \(\mathbb{K}\)-spazio vettoriale di dimensione finita e sia \(f\) un endomorfismo di \(V\). Dimostrare che le seguenti affermazioni sono equivalenti:

  1. \(f\) è diagonalizzabile con spettro incluso in \(\{0, 1\}\);

  2. \(f\) è idempotente, cioè \(f^2 = f\);

  3. esistono \(U\) e \(W\), sottospazi vettoriali di \(V\) con \(V = U \oplus W\), tali che \(f\) è la proiezione su \(U\) parallela a \(W\).

8

Sia \(p\) un numero primo.

  1. Determinare autovalori e autospazi dell’endomorfismo di \((\mathbb{F}_p)^p\) che permuta ciclicamente i vettori della base canonica, cioè: \[e_1 \mapsto e_2, \quad e_2 \mapsto e_3, \quad e_3 \mapsto e_4, \quad \dots, \quad e_{p-1} \mapsto e_p, \quad e_p \mapsto e_1.\]

  2. Determinare autovalori e autospazi dell’endomorfismo di \((\mathbb{F}_p)^{p-1}\) che permuta ciclicamente i vettori della base canonica, cioè: \[e_1 \mapsto e_2, \quad e_2 \mapsto e_3, \quad \dots, \quad e_{p-2} \mapsto e_{p-1}, \quad e_{p-1} \mapsto e_1.\]

9

Sia \(\{F_n\}_{n \in \mathbb{N}}\) la successione dei numeri di Fibonacci definita ponendo \(F_0 = 0\), \(F_1 = 1\), e richiedendo che per ogni intero \(n > 0\) valga la relazione \[F_{n+1} = F_n + F_{n-1}.\]

  1. Determinare una matrice \(2 \times 2\), a coefficienti interi, \(A\) tale che per ogni intero \(n > 0\) valga l’uguaglianza \[\begin{pmatrix} F_{n+1} \\ F_n \end{pmatrix} = A \begin{pmatrix} F_n \\ F_{n-1} \end{pmatrix}.\]

  2. Dare una formula chiusa per \(F_n\) utilizzando gli autovalori di \(A\).

10

Diagonalizzare (su \(\mathbb{C}\)) la seguente matrice \(A\) e calcolare la potenza \(A^{100}\): \[A = \begin{pmatrix} \frac{2}{3} & \frac{2}{3} & -\frac{1}{3} \\ -\frac{1}{3} & \frac{2}{3} & \frac{2}{3} \\ \frac{2}{3} & -\frac{1}{3} & \frac{2}{3} \end{pmatrix}.\]

11

Sia \(V\) un \(\mathbb{K}\)-spazio vettoriale di dimensione finita e sia \(f\) un endomorfismo di \(V\). Dimostrare che le seguenti affermazioni sono equivalenti:

  1. \(f\) è triangolarizzabile, cioè esiste una base di \(V\) rispetto alla quale la matrice associata a \(f\) risulta triangolare;

  2. esiste una base \((v_1, \dots, v_n)\) di \(V\) tale che per ogni \(m\), con \(1 \leq m \leq n\), il sottospazio vettoriale generato dai primi \(m\) vettori della base, \[\operatorname{Span}(v_1, \dots, v_m),\] è \(f\)-invariante;

  3. il polinomio caratteristico di \(f\) ammette tutte le sue radici in \(\mathbb{K}\).

12

Triangolarizzare la seguente matrice \(A\) e calcolare la potenza \(A^{100}\): \[A = \begin{pmatrix} 7 & 9 \\ -4 & -5 \end{pmatrix}.\]

13

Diagonalizzare simultaneamente le seguenti matrici \(A, B \in M_{4,4}(\mathbb{R})\), cioè trovare una matrice invertibile \(C \in M_{4,4}(\mathbb{R})\) tale che \(C^{-1} A C\) e \(C^{-1} B C\) siano entrambe diagonali.

\[A = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 2 & -1 & -4 & -4 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & -1 \end{pmatrix} \quad B = \begin{pmatrix} 1 & 0 & -2 & -2 \\ 0 & 1 & 2 & 2 \\ 2 & -2 & -5 & -4 \\ -2 & 2 & 4 & 3 \end{pmatrix}\]

14

Dire se le seguenti matrici \(A, B \in M_{4,4}(\mathbb{R})\) sono simili, cioè se esiste una matrice invertibile \(C \in M_{4,4}(\mathbb{R})\) tale che \[C^{-1} A C = B.\]

\[A = \begin{pmatrix} 3 & -4 & 3 & 0 \\ 4 & -5 & 4 & 0 \\ 2 & -3 & 2 & -1 \\ -2 & 2 & -1 & 0 \end{pmatrix} \quad B = \begin{pmatrix} 3 & -2 & 1 & 2 \\ 4 & -3 & 2 & 2 \\ 2 & -2 & 1 & 0 \\ -2 & 1 & 0 & -1 \end{pmatrix}\]

15

Sia \(A \in M_{n,n}(\mathbb{Q})\) una matrice invertibile a coefficienti interi. Dimostrare che la sua inversa \(A^{-1} \in M_{n,n}(\mathbb{Q})\) ha coefficienti interi se e solo se \[\det A = \pm 1.\]

16

Una matrice \(A \in M_{n,n}(K)\) si dice nilpotente se esiste un intero \(m > 0\) tale che \(A^m = 0\), cioè la potenza \(m\)-esima di \(A\) è uguale alla matrice nulla. Dimostrare che se \(A \in M_{n,n}(K)\) è nilpotente allora:

  1. \(\lambda = 0\) è autovalore di \(A\),

  2. \(\lambda = 0\) è l’unico autovalore di \(A\),

  3. \(A\) è diagonalizzabile solo se \(A\) è la matrice nulla,

  4. \(I_n - A\) è una matrice invertibile,

  5. \(A^n = 0\).

Inoltre

  1. esprimere l’inversa \((I_n - A)^{-1}\) come combinazione lineare di potenze della matrice \(A\).

17

testo esercizio

18

testo esercizio