\([...]\) Accidente significa ciò che appartiene ad una cosa e che può essere affermato con verità della cosa, ma non sempre né per lo piú: per esempio, se uno scava una fossa per piantare un albero e trova un tesoro. Questo ritrovamento del tesoro è, dunque, un accidente per chi scava una fossa: infatti, l’una cosa non deriva dall’altra né fa seguito all’altra necessariamente; e nemmeno per lo piú chi pianta un albero trova un tesoro. E un musico può anche essere bianco, ma, poiché questo non avviene né sempre né per lo piú, noi diciamo che è un accidente. Pertanto, poiché ci sono attributi che appartengono ad un soggetto, e poiché alcuni di questi attributi appartengono al soggetto solo in certi luoghi e in certi tempi, allora tutti gli attributi che appartengono ad un soggetto, ma non in quanto il soggetto è questo soggetto e il tempo questo determinato tempo e il luogo questo determinato luogo, saranno accidenti. Dell’accidente non ci sarà quindi neppure una causa determinata, ma ci sarà solo una causa fortuita: e questa è indeterminata. È per accidente che uno giunge ad Egina, se non è partito con l’intento di giungere in tal luogo, ma se è giunto perché spinto dalla tempesta, o preso dai pirati. Dunque, l’accidente è prodotto ed esiste non per se stesso ma per altro: la tempesta, infatti, è stata causa che si giungesse dove non voleva giungere, cioè ad Egina. [...]
Accidente si dice anche in un altro senso. Tali sono tutti gli attributi che appartengono a ciascuna cosa di per sé, ma che non rientrano nella sostanza stessa della cosa. Per esempio, accidente in questo senso è la proprietà di un triangolo di avere la somma degli angoli uguale a due retti. Gli accidenti di questo tipo possono essere eterni, nessuno degli accidenti dell’altro tipo, invece, lo può essere. \([...]\)
Avendo preliminarmente definito il concetto di campo, è ora possibile fornire una definizione più rigorosa di spazio vettoriale. Uno spazio vettoriale, infatti, altro non è che un insieme non vuoto di vettori, dotato di due operazioni ben definite: l’addizione di vettori e la moltiplicazione di un vettore per uno scalare. Tale insieme è strutturalmente associato a un campo numerico, da cui provengono gli scalari utilizzati per operare sui vettori, secondo specifiche leggi di combinazione lineare. Ciò significa che per costruire una struttura di spazio vettoriale risultano esser necessarie due entità fondamentali, le quali seguono opportune leggi indotte dall’ambiente: un insieme di vettori e un insieme di scalari. I vettori, ovviamente, sono i protagonisti di questo mondo, mentre gli scalari possono essere visti quali accidenti associabili ai vettori per "allungarli" o "accorciarli".
Uno spazio vettoriale (o \(\mathbb{K}\)-spazio vettoriale) è un insieme \(V\) dotato di due operazioni:
un’operazione di somma tra vettori: \(+: V \times V \to V\), tale che \((u, v) \mapsto u + v\);
un’operazione di moltiplicazione per scalare: \(\cdot : \mathbb{K} \times V \to V\), tale che \((\lambda, v) \mapsto \lambda \cdot v\),
soddisfacendo le seguenti proprietà per ogni \(u, v, w \in V\) e per ogni \(\lambda, \mu \in \mathbb{K}\):
(Associatività della somma) \((u + v) + w = u + (v + w)\);
(Esistenza dell’elemento neutro) Esiste \(0 \in V\) tale che \(v + 0 = v\) per ogni \(v \in V\);
(Esistenza dell’inverso) Per ogni \(v \in V\) esiste \(-v \in V\) tale che \(v + (-v) = 0\);
(Commutatività della somma) \(u + v = v + u\);
(Compatibilità tra prodotto di scalari e vettori) \((\lambda \mu) \cdot v = \lambda \cdot (\mu \cdot v)\);
(Elemento neutro della moltiplicazione) \(1 \cdot v = v\);
(Distributività rispetto alla somma di vettori) \(\lambda \cdot (u + v) = \lambda \cdot u + \lambda \cdot v\);
(Distributività rispetto alla somma di scalari) \((\lambda + \mu) \cdot v = \lambda \cdot v + \mu \cdot v\).
Osservazione. Esistono due "zeri", quello del campo
\(0_\mathbb{K} \in \mathbb{K}\) e
quello dell’insieme di vettori \(0_V \in
V\).
Alcuni esempi di spazio vettoriale includono:
\(\mathbb{R}^n\): è lo spazio vettoriale costituito da tutti i vettori in \(n\)-dimensioni, ossia a \(n\) componenti, ove \(n\) è un intero positivo. Ogni vettore in \(\mathbb{R}^n\) può essere rappresentato come una sequenza ordinata di \(n\) numeri reali, \((x_1, x_2, \dots, x_n)\), con operazioni di somma e moltiplicazione per uno scalare che rispettano le leggi degli spazi vettoriali.
\(\mathbb{R}^1\): È il caso particolare in cui \(n = 1\). Lo spazio vettoriale \(\mathbb{R}^1\) è semplicemente la retta dei numeri reali, ove ogni vettore è un numero reale e le operazioni di somma e moltiplicazione per uno scalare sono quelle usuali di \(\mathbb{R}\).
\(\mathbb{R}^0\): Si tratta dello spazio vettoriale di dimensione zero, ovvero il caso in cui \(n=0\). Anche se non contiene alcun vettore a componenti reali, include comunque il solo vettore nullo: \(\mathbb{R}^0:=\{\vec{0}\}\). Rappresenta un caso limite interessante in algebra lineare.
\(\mathbb{K}^n\): Ove \(\mathbb{K}\) rappresenta un campo, che potrebbe essere \(\mathbb{R}\), \(\mathbb{C}\), o un altro campo. In tal caso, \(\mathbb{K}^n\) è uno spazio vettoriale costituito da vettori di dimensione \(n\) a componenti appartenenti al campo \(\mathbb{K}\).
In tutti gli esempi appena dati, gli spazi vettoriali rispettano le proprietà fondamentali di definizione.
In generale, quando ci si riferisce al \(\mathbb{K}\)–spazio vettoriale banale o zero, si intende lo spazio vettoriale costituito dal solo vettore \(\vec{0}\).
Altri spazi da tenere a mente sono i seguenti:
\(M_{mn}(\mathbb{K})\): rappresenta lo spazio delle matrici \(m \times n\) con elementi appartenenti al campo \(\mathbb{K}\).
\(\mathbb{K}^A\): rappresenta lo spazio vettoriale delle funzioni da un insieme \(A\) a \(\mathbb{K}\). Si noti che in questo spazio valgono le seguenti proprietà:
\((kf)(a) = kf(a)\), per ogni scalare \(k \in \mathbb{K}\) e per ogni funzione \(f \in \mathbb{K}^A\).
\((f + g)(a) = f(a) + g(a)\), per ogni coppia di funzioni \(f, g \in \mathbb{K}^A\).
Se esiste uno spazio vettoriale, ovviamente esiste anche un sottospazio vettoriale.
Sia \(V\) uno spazio vettoriale su un campo \(\mathbb{K}\). Un sottoinsieme \(U\) di \(V\) è detto un sottospazio vettoriale di \(V\) se soddisfa le seguenti tre condizioni:
Chiusura rispetto alla somma: Per ogni \(\mathbf{u}, \mathbf{v} \in U\), la somma \(\mathbf{u} + \mathbf{v} \in U\).
Chiusura rispetto alla moltiplicazione per scalare: Per ogni \(\mathbf{u} \in U\) e per ogni \(\lambda \in \mathbb{K}\), il prodotto scalare \(\lambda \mathbf{u} \in U\).
Presenza del vettore nullo: Il vettore nullo \(\mathbf{0} \in U\).
Osservazione. Se \(U \subset V\) sottospazio vettoriale, allora esso contiene necessariamente il vettore \(0_V\).
Esempio. Sia \(V\equiv\mathbb{R}^2\), allora i suoi sottospazi banali sono \(\{ \vec{0}\} \subset V\) e \(V \subset V\), altri sottospazi sono invece le rette del piano passanti per l’origine.
Ebbene sì, il classico piano cartesiano coincide con lo spazio vettoriale \(V \equiv \mathbb{R}^2\). A breve sarà più chiaro anche il significato dei riferimenti geometrici: si porti ancora un po’ di pazienza.
Esempio. Un altro esempio di sottospazio vettoriale
è quello delle soluzioni di un sistema lineare omogeneo
a coefficienti in \(\mathbb{K}\).
Esercizio. Perchè ci si riferisce solo allo spazio
delle soluzioni di un sistema lineare omogeneo?
Prima di concludere il paragrafo, è forse opportuno chiarire finalmente
cosa si è inteso fino a questo punto con l’espressione combinazione
lineare.
Siano \(V\) uno spazio vettoriale su un campo \(\mathbb{K}\), e siano \(\mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n} \in V\) vettori in \(V\). Una combinazione lineare di questi vettori è un vettore della forma: \[\mathbf{w} = \lambda_1 \mathbf{v_1} + \lambda_2 \mathbf{v_2} + \dots + \lambda_n \mathbf{v_n}=\sum_{i=1}^n \lambda_i v_i\] dove \(\lambda_1, \lambda_2, \dots, \lambda_n\) sono scalari in \(\mathbb{K}\).
Il vettore \(\mathbf{w} \in V\) è detto combinazione lineare dei vettori \(\mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n}\) con i coefficienti \(\lambda_1, \lambda_2, \dots, \lambda_n\).
Esempio. Sia \((3,2)=3(1,0)+1(0,2)\), allora \((3,2)\) è combinazione lineare dei vettori
\(\{(1,0), (0,2)\}\) con coefficenti
\(3\) e \(1\).
Esercizio. Individuare un insieme arbitrario di 4
vettori \(\mathbf{v_1}, \mathbf{v_2},
\mathbf{v_3}, \mathbf{v_4}\) in \(\mathbb{R}^2\) tali che esistano
coefficienti reali \(\lambda_1, \lambda_2,
\lambda_3, \lambda_4\) per cui la combinazione lineare \[\lambda_1 \mathbf{v_1} + \lambda_2 \mathbf{v_2} +
\lambda_3 \mathbf{v_3} + \lambda_4 \mathbf{v_4} = \mathbf{v},\]
ove \(\mathbf{v} = \left( \frac{2}{5},
9\sqrt{2} \right)\).
Un’altra essenziale definizione della quale si farà ampiamente uso per
il resto del corso, è quella di span.
Dato un insieme \(S = \{ \mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n} \}\) di vettori in uno spazio vettoriale \(V\), lo span di \(S\), denotato da \(\text{span}(S)\) o \(\langle \mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n} \rangle\), è l’insieme di tutte le combinazioni lineari dei vettori in \(S\). Formalmente, si ha: \[Span\{S\} = \left\{ \sum_{i=1}^n \lambda_i \mathbf{v_i} \mid \lambda_1, \lambda_2, \dots, \lambda_n \in K \right\}.\] In altre parole, lo span di \(S\) è l’insieme di tutti i vettori che possono essere espressi come combinazioni lineari di \(\mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n}\) con coefficienti scalari \(\lambda_1, \lambda_2, \dots, \lambda_n\) appartenenti al campo \(\mathbb{K}\).
Se il numero di vettori \(n\) è finito, lo span è un sottospazio vettoriale di \(V\).
L’etimologia del termine "span", esaminata sotto il profilo storico, trova le sue origini nell’inglese antico spannan, il quale denotava l’atto di "unire, collegare, agganciare, fissare, legare, connettere; estendere, allungare". Tale vocablo ha radici nel proto-germanico *spannan, il quale a sua volta deriva dalla radice proto-indoeuropea *(s)pen-, che designa l’idea di "tirare, allungare, filare". Pertanto, il concetto di "span" si carica del significato di estensione, di coprire una certa distanza o intervallo.
Lo spazio da esso generato, può essere visualizzato in vari modi a seconda del numero di vettori che esso contiene: se contiene un vettore, esso genera una retta dato che il vettore può allungarsi e accorciarsi su di una sola direzione e cambiare verso, invece se contiene due vettori esso può essere visualizzato come un piano a causa della proprietà di somma tra vettori.
Per una concezione visiva, si consiglia la visione del video (in
inglese) realizzato da 3Blue1Brown:
https://youtu.be/k7RM-ot2NWY?si=vyD4a1yPSinAvTON
Problema: Sia \(V \equiv
\mathbb{R}^3\) e siano \[v_1 =
\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix}, \quad
v_2 = \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}, \quad
v_3 = \begin{pmatrix} 0 \\ 1 \\ -1 \end{pmatrix}.\] Mostrare
che \(\text{Span} \{v_1, v_2, v_3\} =
\text{Span} \{v_1, v_2\}\).
Suggerimento: È necessario mostrare che \(v_3 = a v_1 + b v_2\), con \(a, b \in \mathbb{R}\).
Soluzione:
Si deve mostrare che il vettore \(v_3\) può essere scritto come una combinazione lineare di \(v_1\) e \(v_2\). In altre parole, si devono trovare i coefficienti \(a\) e \(b\) tali che \[v_3 = a v_1 + b v_2.\]
Si scrive esplicitamente la combinazione lineare: \[a v_1 + b v_2 = a \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} + b \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} = \begin{pmatrix} a \\ 0 \\ a \end{pmatrix} + \begin{pmatrix} b \\ b \\ 0 \end{pmatrix} = \begin{pmatrix} a + b \\ b \\ a \end{pmatrix}.\]
Ora, si vuole che questa combinazione lineare sia uguale a \(v_3\), cioè \[\begin{pmatrix} a + b \\ b \\ a \end{pmatrix} = \begin{pmatrix} 0 \\ 1 \\ -1 \end{pmatrix}.\]
Questo fornisce il seguente sistema di equazioni: \[\begin{cases} a + b = 0 \\ b = 1 \\ a = -1 \end{cases}\]
Risolvendo il sistema, si ottiene \(a = -1\) e \(b = 1\). Pertanto, è possibile scrivere \(v_3\) come: \[v_3 = -v_1 + v_2.\]
Quindi, \(v_3\) è una combinazione lineare di \(v_1\) e \(v_2\), il che implica che \[\text{Span} \{ v_1, v_2, v_3 \} = \text{Span} \{ v_1, v_2 \}.\]
Esercizio. Si ricorda che è necessario visionare il
seguente video realizzato da ClearMath:
https://youtu.be/GGjqfrWsPRE?si=rOFd0a16JKNuMEWg .
\([...]\) Sostanza, in questo senso, sono detti i corpi semplici – per esempio fuoco, acqua, terra e tutti gli altri corpi come questi; e in generale tutti i corpi e le cose composte di essi: per esempio animali ed esseri divini e le parti di questi. Tutte queste cose si dicono sostanze, perché non vengono predicate di un sostrato, mentre di esse vien predicato tutto il resto. \([...]\)
In un altro senso, sostanza si dice ciò che è immanente a queste cose che non si predicano di un sostrato ed è causa del loro essere: per esempio l’anima negli animali. \([...]\)
Inoltre, sostanze sono dette anche quelle parti che sono immanenti a queste cose, che delimitano queste stesse cose, che esprimono un alcunché di determinato e la cui eliminazione comporterebbe l’eliminazione del tutto. Per esempio, se si eliminasse la superficie – secondo alcuni filosofi – si eliminerebbe il corpo, e se si eliminasse la linea, si eliminerebbe la superficie. E in generale questi filosofi ritengono che il numero sia una realtà di questo tipo e che determini tutto, perché, se si eliminasse il numero, non ci sarebbe piú nulla. \([...]\)
Inoltre, si dice sostanza di ciascuna cosa anche l’essenza, la cui nozione è definizione della cosa. \([...]\)
Ne risulta che la sostanza si intende secondo due significati: (a) ciò che è sostrato ultimo, il quale non viene piú predicato di altra cosa e (b) ciò che, essendo un alcunché di determinato, può anche essere separabile, e tale è la struttura e la forma di ciascuna cosa. \([...]\)
Un ulteriore passo fondamentale per giungere ad una comprensione geometrica di quanto si svolge in questo universo di vettori consiste nell’enunciare la definizione di base, termine che, lo si intenda bene, non scaturisce da scelta aleatoria.
L’etimologia della parola base deriva dal latino
basis, a sua volta derivato dal greco βάσις (básis), che significa "base,
fondamento, ciò che sta sotto". In origine, il termine greco si riferiva
al "camminare, andare", quindi alla parte inferiore del corpo che
appoggia a terra e sostiene il peso.
\(\cdot\) Intuire cosa potrebbe essere
una base nell’ambito degli spazi vettoriali.
Suggerimento: pensare al piano cartesiano.
Prima di definire cosa siano basi e generatori, è necessario introdurre le nozioni di lineare dipendenza e lineare indipendenza.
Siano \(\mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n}\) vettori in uno spazio vettoriale \(V\). I vettori \(\mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n}\) sono linearmente indipendenti se l’unica soluzione dell’equazione
\[c_1 \mathbf{v_1} + c_2 \mathbf{v_2} + \dots + c_n \mathbf{v_n} = \mathbf{0}\]
è \(c_1 = c_2 = \dots = c_n = 0\), ove \(c_1, c_2, \dots, c_n\) sono scalari.
In altre parole, i vettori \(\mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n}\) sono linearmente indipendenti se l’unica combinazione lineare che li porta al vettore nullo è la combinazione in cui tutti i coefficienti sono uguali a zero.
Ciò implica che, in un dato insieme di vettori, ogni vettore non possa essere espresso come combinazione lineare degli altri; in altre parole, ciascun vettore è unico nel suo genere, e per tale ragione si dice che sia indipendente. La dipendenza lineare, ovviamente, rappresenta il contrario: in un insieme di vettori linearmente dipendenti, almeno uno di essi può essere espresso come combinazione lineare degli altri.
Siano \(\mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n}\) vettori in uno spazio vettoriale \(V\). I vettori \(\mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n}\) sono linearmente dipendenti se esistono scalari \(c_1, c_2, \dots, c_n\), non tutti uguali a zero, tali che la combinazione lineare
\[c_1 \mathbf{v_1} + c_2 \mathbf{v_2} + \dots + c_n \mathbf{v_n} = \mathbf{0}\]
è soddisfatta. In altre parole, i vettori \(\mathbf{v_1}, \mathbf{v_2}, \dots, \mathbf{v_n}\) sono linearmente dipendenti se almeno uno di essi può essere scritto come una combinazione lineare degli altri.
Esercizio. Riscrivere le due definizioni appena date
utilizzando le sommatorie.
Un metodo particolarmente utile per verificare l’indipendenza lineare di
un insieme di vettori consiste nel disporli come colonne di una matrice,
per poi ridurre quest’ultima alla forma a scala tramite
l’eliminazione di Gauss.
Problema: Siano \[\mathbf{v}_1 = \begin{pmatrix} 1 \\ 2 \\ 3
\end{pmatrix},
\mathbf{v}_2 = \begin{pmatrix} 4 \\ 5 \\ 6 \end{pmatrix},
\mathbf{v}_3 = \begin{pmatrix} 7 \\ 8 \\ 9 \end{pmatrix},
\mathbf{v}_4 = \begin{pmatrix} 10 \\ 11 \\ 12 \end{pmatrix},
\mathbf{v}_5 = \begin{pmatrix} 13 \\ 14 \\ 15 \end{pmatrix}\].
Dire se sono linearmente indipendenti o meno.
Soluzione: Si inseriscono i vettori in una matrice:
\[\mathbf{A} = \begin{pmatrix}
1 & 4 & 7 & 10 & 13 \\
2 & 5 & 8 & 11 & 14 \\
3 & 6 & 9 & 12 & 15
\end{pmatrix}\]. Si riduce la matrice a scala tramite
l’eliminazione di Gauss. \[\mathbf{A}' =
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 0 & 0 & 0 & 0
\end{pmatrix}\] La posizione dei pivot indica i vettori
linearmente indipendenti, in questo caso essi risultano essere \(v_1\) e \(v_2\). Gli altri vivono in \(Span\{v_1,v_2\}\). Infatti \(v_3=-v_1+2v_2\), \(v_4=..................\), \(v_5=.....................\).
Completare l’esercizio.
Esercizio. Perché questo algoritmo funziona? Se la
risposta non risulta ovvia, si consiglia di rivedere il capitolo
(fondamentale!) dedicato ai sistemi lineari.
Ad ogni modo, si consiglia di ragionare in termini di equazioni di un
sistema lineare per capirne l’essenza.
Poste tali definizioni preliminari, è possibile ora introdurre la nozione di base di uno spazio vettoriale. Una base non è altro che un insieme di vettori linearmente indipendenti che generano l’intero spazio vettoriale considerato.
Un esempio classico è dato dalla coppia ordinata di vettori \[\left(
\begin{pmatrix}
1 \\
0
\end{pmatrix},
\begin{pmatrix}
0 \\
1
\end{pmatrix}
\right),\] per la quale, convenzionalmente, si utilizzano le
parentesi tonde anziché le graffe, poiché si tratta di una coppia
ordinata di vettori. Questa coppia forma la base canonica dello
spazio vettoriale \(\mathbb{R}^2\): i
due vettori rappresentano, rispettivamente, l’asse delle ascisse e
l’asse delle ordinate nel piano cartesiano.
Esercizio. Verificare che \(\{ \begin{pmatrix}
1 \\
0
\end{pmatrix},\begin{pmatrix}
0 \\
1
\end{pmatrix} \}\) siano linearmente indipendenti.
Sia \(V\) uno spazio vettoriale su un campo \(\mathbb{K}\). Un insieme ordinato \(\mathcal{B} = (v_1, v_2, \dots, v_n) \subseteq V\) è detto base di \(V\) se soddisfa le seguenti due condizioni:
Linearmente indipendente: Gli elementi di \(\mathcal{B}\) sono linearmente indipendenti, cioè l’unica soluzione all’equazione \[c_1 v_1 + c_2 v_2 + \dots + c_n v_n = 0\] è \(c_1 = c_2 = \dots = c_n = 0\), dove \(c_1, c_2, \dots, c_n \in \mathbb{K}\).
Generano lo spazio: Ogni vettore \(v \in V\) può essere scritto come una combinazione lineare degli elementi di \(\mathcal{B}\), cioè esistono scalari \(c_1, c_2, \dots, c_n \in F\) tali che \[v = c_1 v_1 + c_2 v_2 + \dots + c_n v_n.\]
Se queste due condizioni sono soddisfatte, \(\mathcal{B}\) è una base di \(V\) e il numero \(n\) di elementi in \(\mathcal{B}\) è chiamato la dimensione di \(V\), indicata con \(\dim(V) = n\).
Osservazione. \((v_1,...,v_k) \in V\) è una base di \(V\) se e solo se costituisce un insieme
minimale di generatori o
massimale di vettori linearmente indipendenti.
Osservazione. La base di uno spazio non è unica,
possono esisterne molteplici.
Esercizio. Che dimensione ha lo spazio generato \(((1,0,0,0), (0,1,0,0),(0,0,1,0),(0,0,0,1), (2,3,2,1))\)? Se il campo è \(\mathbb{Q}\), come viene denotato tale spazio vettoriale?
Esercizio. Determinare due basi distinte dello spazio \(\mathbb{R}^2\).
Sia \(V\) uno spazio vettoriale su un campo \(\mathbb{K}\). Un sottoinsieme \(S \subseteq V\) è detto insieme di generatori di \(V\) (o insieme generante) se ogni elemento di \(V\) può essere espresso come una combinazione lineare di elementi di \(S\).
In altre parole, \(S\) è un insieme di generatori di \(V\) se, per ogni vettore \(v \in V\), esistono scalari \(c_1, c_2, \dots, c_n \in \mathbb{K}\) (con \(n \in \mathbb{N}\)) e vettori \(v_1, v_2, \dots, v_n \in S\) tali che \[v = c_1 v_1 + c_2 v_2 + \dots + c_n v_n.\]
Se tale condizione è soddisfatta, si dice che \(S\) genera \(V\), ovvero \(\langle S \rangle = V\), dove \(\langle S \rangle\) denota lo spazio vettoriale generato da \(S\).
Osservazione. Aeneadum genetrix, hominum divumque voluptas... Non si ha nessuna condizione sulla dipendenza a differenza della base.
Il termine generatore deriva dal latino generare, che significa "produrre" o "far nascere". In matematica, un generatore di uno spazio vettoriale è un elemento o un insieme di elementi che "producono" o "generano" l’intero spazio tramite combinazioni lineari.
In generale, se \((v_1,...,v_n)\) è
una base di \(V\), allora ogni vettore
\(w \in V\) si può esprimere in modo
unico come combinazione lineare di \((v_i)\), ossia \(w=\sum_i a_iv_i\). I coefficienti \(a_1,...,a_n\) sono univocamente determinati
e si dicono coordinate del vettore \(w\) rispetto alla base \(\mathcal{B}\).
Formalmente, vi è una corrispondenza biunivoca \(X_\mathcal{B}: V \to \mathbb{K}^n\) con
\(v \mapsto X_\mathcal{B}(v)\), ove
\(X_\mathcal{B}(v)\) significa
"coordinate di \(v\) rispetto alla base
\(\mathcal{B}\)". L’ordine dei vettori
nella base è dovuto proprio all’esistenza delle coordinate, se non ci
fosse sarebbe un bel problema.
Da questo momento in poi, per ragioni di comodità espositiva, si adopererà la seguente convenzione di notazione:
Sia \(V\) uno spazio vettoriale di dimensione \(n\) su un campo \(\mathbb{K}\). I vettori \(e_1, e_2, \dots, e_n\) sono i vettori della base canonica \(\mathcal{E}\) di \(V\), e sono definiti come segue:
\[e_i = \begin{pmatrix} 0 \\ \vdots \\ 1 \\ \vdots \\ 0 \end{pmatrix}\] dove il vettore \(e_i\) ha un 1 nella \(i\)-esima posizione e 0 nelle altre posizioni, per ogni \(i \in \{1, 2, \dots, n\}\).
Questi vettori sono linearmente indipendenti e generano lo spazio vettoriale \(V\), quindi formano una base di \(V\). Inoltre, ogni vettore \(v \in V\) può essere scritto come una combinazione lineare di \(e_1, e_2, \dots, e_n\), ovvero \[v = c_1 e_1 + c_2 e_2 + \dots + c_n e_n\] per qualche scelta di scalari \(c_1, c_2, \dots, c_n \in \mathbb{K}\).
Ad esempio, \(\mathcal{E}\equiv((1,0,0),(0,1,0),(0,0,1))\equiv(e_1,e_2,e_3)\) è la base canonica di \(\mathbb{K}^3\). Tornando alla discussione circa le coordinate, per comprenderle può tornare utile il seguente esempio.
Esempio. Si consideri il caso in cui \(V \equiv \mathbb{R}^3\) e la base canonica \(\mathcal{E}\). Per ogni vettore \(w = (w_1, w_2, w_3) \in \mathbb{R}^3\), si può scrivere: \[w = w_1 v_1 + w_2 v_2 + w_3 v_3 = w_1 (1, 0, 0) + w_2 (0, 1, 0) + w_3 (0, 0, 1),\] ove \(w_1, w_2, w_3\) sono le coordinate di \(w\) rispetto alla base \(\mathcal{B}\). In questo caso, la corrispondenza biunivoca \(X_{\mathcal{B}}\) è data da: \[X_{\mathcal{B}}(w) = (w_1, w_2, w_3).\] Pertanto, il vettore \(w\) è rappresentato dalle sue coordinate \((w_1, w_2, w_3)\) rispetto alla base \(\mathcal{E}\).
Ovviamente, si possono considerare basi diverse dalla canonica, le
coordinate servono per indicare la posizione rispetto a dei
punti di riferimento noti.
Esercizio. Si disegni, tramite l’utilizzo di squadre da
disegno, una griglia a quadretti sulla seguente mappa. Si consideri
l’angolo in basso a sinistra come l’origine del sistema di coordinate
\(O \equiv (0,0)\). Ogni quadretto
della griglia avrà lato di lunghezza pari a \(1u\), dove \(u\) rappresenta l’unità di misura.
(a) Considerando come base i vettori \(((1,0), (0,1))\), che coordinate ha la
clock tower?
(b) Considerando, con la medesima base, come centro \(O'\) il middle courtyard, che
coordinate ha la clock tower?
Esercizio. Quali sono le coordinate del vettore \((3,4)\) rispetto la base \(\mathcal{B}\equiv ((1,3),(0,1))\)?
In uno spazio vettoriale, è possibile considerare un insieme — una base
— di vettori che determinano direzioni specifiche, le quali possono
essere impiegate per rappresentare tutte le direzioni possibili nello
spazio stesso. Una caratteristica particolarmente interessante di tali
spazi consiste nel fatto che, dato un insieme di vettori noti, si può
ricostruire una base dello spazio utilizzando soltanto
alcuni di essi, purché sia già nota una base di riferimento dello spazio
medesimo.
Si supponga di trovarsi di fronte ad un insieme di vettori sparsi nello spazio. Se si dispone di una base di riferimento dello stesso, è possibile selezionare i vettori necessari dall’insieme trovato e combinarli — mediante operazioni di somma e moltiplicazione per scalare — al fine di ottenere una nuova base. In altri termini, anche se i vettori trovati non appartengono esplicitamente alla base originale, essi possono essere utilizzati per generare una nuova base che conservi le stesse proprietà dello spazio vettoriale di partenza.
A titolo di esempio, in uno spazio vettoriale bidimensionale, ogni vettore può essere rappresentato come una combinazione lineare di due vettori indipendenti, noti come vettori di base. Qualora si individuassero due vettori che non corrispondono esattamente a quelli della base originaria, ma che possano comunque essere combinati per coprire tutte le direzioni dello spazio, questi possono essere impiegati per costruire una nuova base, la quale consentirà di descrivere ogni altra direzione nello spazio in modo equivalente alla base originaria.
Teorema del completamento. Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale e sia \((v_1,...,v_n)\) una base di \(V\). Siano \(w_1,...,w_m \in V\) dei vettori linearmente
indipendenti, allora esistono \(n-m\)
vettori della base che completano \(w_1,...,w_m\) a una base di \(V\).
In altri termini, esistono \(1 \leq j_1 \leq
... \leq j_{n-m}\leq n\) tali che \((w_1,...,w_m, v_{j_1}, ..., v_{j_{n-m}})\)
è una base di \(V\).
Dimostrazione. Questa rappresenta la prima
dimostrazione "seria" del corso, si procederà per
induzione.
Si considera come passo base \(m=0\), ciò significa che ci sono \(0\) vettori \(w_i\), quindi per ottenere una base di
\(V\), è necessario prendere tutti e
\(n\) vettori di \((v_1,...,v_n)\) dato che essi formano una
base di \(V\); il teorema con \(m=0\) è valido.
Per utilizzare il passo induttivo, si suppone che il
teorema sia vero, ossia che i vettori
\(w_i\) linearmente indipendenti
possano essere completati a una base di \(V\) aggiungendo alcuni vettori \(v_i\) della base di \(V\).
Per fare ciò, si considerano i vettori \(\{w_1,...,w_m, w_{m+1}\}\) linearmente
indipendenti – si noti che si sta considerando che la definizione sia
valida anche per un \(m'\) più
grande di \(m\) per principio di
induzione, ecco da dove sbuca \(m+1 \ \
(>m \ \ necessariamente)\) – e si asserisce che \((w_1,...,w_m,w_{m+1}, v_{m+2}, ..., v_n)\)
è una base di \(V\).
Se ciò è vero, tutti i vettori in \((w_1,...,w_m,w_{m+1}, v_{m+2}, ..., v_n)\)
sono linearmennte indipendenti, e quindi \(w_{m+1}=a_1w_1+...+a_mw_m+a_{m+1}v_{m+2}+...a_{n-1}v_n\).
Poichè \(w_{m+1}\) non è esprimibile
come combinazione lineare di \(w_1,...,w_m\), almeno uno dei coefficienti
dei vettori \(v_i\), ossia \(a_{m+1},...,a_n\), deve essere non
nullo;altrimmenti si avrebbe che \(w_{m+1}=\vec{0}\), ciò sarebbe una
informazione inutile.
Si suppone quindi, senza perdita di generalità dato che si può scegliere
qualunque coefficiente dei vettori \(v_i\), che \(a_{m+1} \neq 0\). Si ha dunque:
\(w_{m+1}=a_1w_1+...+a_mw_m+a_{m+1}v_{m+2}+...a_{n-1}v_n\)
\(a_{m+1}v_{m+2}=-w_{m+1}-a_1w_1....-a_mw_m-...-a_{n-1}v_n\)
\(v_{m+2}=\frac{-w_{m+1}-a_1w_1....-a_mw_m-...-a_{n-1}v_n}{a_{m+1}}=-\frac{1}{a_{m+1}}(a_1w_{1}+...+a_mw_m+w_{m+1}+...+a_{n-1}v_n)\)
Ciò significa che \(v_{m+2}\in
Span\{w_1,...,w_m,w_{m+1},...,v_n\}\). Poichè \(w_1,...,w_m,w_{m+1}\) sono linearmente
indipendenti e \(v_{m+2} \notin Span
\{w_1,...,w_{m+1}\}\) dato che è necessario aggiungerlo per
ottenere una base di \(V\). Esso
dovrebbe quindi appartenere solo a \(Span\{v_1,...,v_{m+2},...,v_n\}\), ma
poichè i vettori \((v_1,...,v_{m+2},...,v_n)\) formano una
base di \(V\), essi sono tutti
linearmente indipendenti e dunque \(v_{m+2}\) è un vettore della base di \(V\) che può essere aggiunto ai vettori
\(\{w_1,...,w_m,w_{m+1}\}\) per
completarli a una base di \(V\).
Il passo successivo consiste nel mostrare che, in effetti, l’insieme
\[(w_1, \dots, w_m, v_{m+2}, v_{m+3}, \dots,
v_n)\] è linearmente indipendente e forma una base di \(V\). Poiché \(w_1, \dots, w_m, v_{m+2}, \dots, v_n\) sono
linearmente indipendenti, è chiaro che ogni vettore della combinazione
lineare di questi vettori può essere rappresentato in modo unico come
combinazione lineare dei vettori stessi, e quindi formano una base di
\(V\).
A questo punto, la base completa di \(V\) è costituita dai vettori \[(w_1, \dots, w_m, v_{j_1}, \dots, v_{j_{n-m}})\] ove \((v_{j_1}, \dots, v_{j_{n-m}})\) sono i vettori scelti nella base di \(V\) per completare la famiglia di vettori linearmente indipendenti \((w_1, \dots, w_m)\).
0◻
Anche in questo caso, l’eliminazione di Gauss offre un
algoritmo per completare un insieme di vettori a una base di un dato
spazio.
Problema: Sia dato l’insieme di vettori \[v_1 = (1, 1, 0, -1), \quad v_2 = (0, 2, 1, 1),
\quad v_3 = (1, 0, 1, 1)\] in \(\mathbb{R}^4\). Si completi a una base di
\(\mathbb{R}^4\).
Soluzione: Per svolgere l’esercizio, è necessario
inserire i vettori colonna in una matrice e affiancare tale matrice alla
matrice con i vettori colonna di una base di \(\mathbb{R}^4\) nota, ad esempio la base
canonica \(\mathcal{E}\). \[\begin{pmatrix}
1 & 0 & 1 & \vert & 1 & 0 & 0 & 0 \\
1 & 2 & 0 & \vert & 0 & 1 & 0 & 0 \\
0 & 1 & 1 & \vert & 0 & 0 & 1 & 0 \\
-1 & 1 & 1 & \vert & 0 & 0 & 0 & 1
\end{pmatrix}\] Si riduce a scala la matrice tramite
l’eliminazione di Gauss. \[\begin{pmatrix}
1 & 0 & 0 & 0 & 0 & 1 & -1 \\
0 & 1 & 0 & -1 & 0 & 2 & -1 \\
0 & 0 & 1 & 1 & 0 & -1 & 1 \\
0 & 0 & 0 & 2 & 1 & -5 & 3
\end{pmatrix}\] Le prime quattro colone con i pivot sono
linearmente indipendenti, quindi una base di \(\mathbb{R}^4\) è costituita da \(\mathcal{B}\equiv(v_1,v_2,v_3,e_1)\).
Esercizio. Provare a rappresentare graficamente il completamento di \(\{(1,0,2), (1,1,0)\}\) a base di \(\mathbb{R}^3\). In generale, cosa succede, intuitivamente, quando si completa un insieme di vettori a una base?
\([...]\) E sostanza è il sostrato, il quale, in un senso, significa la materia (dico materia ciò che non è un alcunché di determinato in atto, ma un alcunché di determinato solo in potenza), in un secondo senso significa l’essenza e la forma (la quale, essendo un alcunché di determinato, può essere separata con il pensiero), e, in un terzo senso, significa il composto di materia e di forma \([...]\).
\([...]\) la sostanza nel significato di sostrato e di materia [ὕλη, ýle] viene concordemente ammessa da tutti, ed essa è la sostanza che esiste in potenza, rimane da dire che cosa sia la sostanza delle cose sensibili come atto.
\([...]\) Dalle cose dette risulta chiaro che cosa sia la sostanza sensibile e quale sia il suo modo di essere: essa è, per un verso, materia, per un altro, forma e atto, e, per un terzo, è l’insieme di materia e di forma.
\([...]\) Non bisogna ignorare che, talora, non è chiaro se il nome indichi la sostanza come composto, oppure l’atto e la forma. Per esempio, non è chiaro se “casa” indichi il composto di materia e forma, ossia un riparo fatto di mattoni e di pietre disposte in questo determinato modo, oppure se significhi l’atto e la forma, ossia un riparo [...].
Ma questo, che per altro rispetto ha una notevole rilevanza, in relazione alla ricerca della sostanza sensibile non ne ha alcuna: infatti l’essenza appartiene alla forma e all’atto. \([...]\)
Non nutro una particolare simpatia nei confronti di Aristotele, anzi, il mio giudizio è ben distante dalla completa ammirazione; tuttavia, non è possibile fare a meno di riconoscerlo quale valido punto di partenza per un’analisi critico-filosofica delle strutture matematiche che, poco a poco, si dispiegano sotto il nostro sguardo. Bisogna, pertanto, fare i conti con lui, ignobilmente da me inserito.
Una conseguenza del teorema del completamento dà luogo al seguente teorema.
Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale con base \(\mathcal{B}\equiv (v_1,...,v_n)\), allora tutte le basi di \(V\) sono formate da \(n\) vettori, ossia presentano la medesima cardinalità.
Tale asserzione costituisce il fondamento della concezione secondo la quale la dimensione di uno spazio vettoriale è, come già precedentemente affermato, indissolubilmente connessa al numero di vettori che compongono la base. Nonostante ciò, rimane ancora da chiarire in modo filosofico il significato preciso del termine dimensione, il quale necessita di una più accurata definizione.
L’etimologia della parola "dimensione" risale al latino dimensio,
dimensionis, che significa "misura" e deriva dal verbo
dimetiri, composto da di– (indicante separazione o
intensificazione) e metiri (misurare).
\(\cdot\) Pervenire a una comprensione
intuitiva del significato matematico.
In Algebra Lineare, la nozione di dimensione si presta ad una duplice interpretazione, la quale si articola in un’ottica algebrica e in una di natura geometrica. La dimensione algebrica è dà intendersi quale valore numerico che viene ad associarsi alla cardinalità della base, ossia al numero di vettori indipendenti costituenti l’insieme generatore dello spazio considerato. D’altro canto, la dimensione geometrica assume un significato che appare immediatamente evidente quando ci si limita a spazi delle consuete dimensioni empiriche, nei quali l’intuizione comune si radica nella percezione sensibile. Di contro, tale concetto si presenta di natura eminentemente controintuitiva qualora si faccia riferimento a spazi di dimensioni superiori, ove la comun intuizione umana non è più in grado di abbracciare la vastità dei costrutti, e ove la sensibilità si sveste del suo abituale dominio.
Per comprendere pienamente quanto asserito, si consideri il seguente esperimento mentale: si immagini di trovarsi nel corpo d’una formica, la quale si muove su una superficie piana. Diversamente da quanto accade nella consueta esistenza di tale insetto, si supponga che la formica sia capace di percepire unicamente due dimensioni, ossia, esclusivamente ciò che si manifesta sopra il piano stesso. In tal contesto, si immagini che una sfera, la quale inizialmente sfugge alla visione della formica, cada sul foglio e lo attraversi. La formica, deficiente in percezione, non potrà scorgere altro che le circonferenze — bidimensionali — della sfera, le quali appaiono come cerchi che vanno ad allargarsi e che si restringono progressivamente, ma mai la sfera in sé, nella sua interezza tridimensionale. Analogamente, l’esperienza nella contingenza umana, dovrebbe esser simile in grado quand’essa s’interfaccia con una dimensione maggiore.
Vi sono svariate modalità per pervenire a una comprensione intuitiva delle dimensioni superiori alla terza, tra cui si annovera, ad esempio, l’approccio costruttivo. Ond’evitare che la dissertazione si prolunghi eccessivamente, si rimanda il lettore all’immagine introduttiva di questo paragrafo, la quale fornisce una rappresentazione visiva idonea circa tale metodo.
Prima di procedere all’enunciazione di ulteriori definizioni e teoremi, è d’uopo chiarire in che modo sia possibile rappresentare geometricamente rette, piani e iperpiani mediante lo span.
Un punto \(\mathbf{P_0}\) in uno spazio vettoriale \(\mathbb{R}^n\) può essere visto come lo span di un insieme vuoto, che rappresenta una posizione fissa nell’ambito dello spazio. Quindi, un punto è definito da: \[\text{Punto} = Span\{\emptyset\} = \{\mathbf{P_0}\}\] ove \(\mathbf{P_0}\) è un punto specifico in \(\mathbb{R}^n\).
Una retta in uno spazio vettoriale \(\mathbb{R}^n\) che parte dal punto \(\mathbf{P_0}\) e ha direzione determinata dal vettore \(\mathbf{v}\) è data da: \[\text{Retta} = \mathbf{P_0} + Span\{\mathbf{v}\} = \left\{ \mathbf{P_0} + t \mathbf{v} \mid t \in \mathbb{R} \right\}\] ove \(\mathbf{P_0}\) è il punto di partenza e \(\mathbf{v}\) è il vettore direzionale.
Un piano in \(\mathbb{R}^3\) che passa per il punto \(\mathbf{P_0}\) ed è definito dai vettori \(\mathbf{v}_1\) e \(\mathbf{v}_2\) è dato da: \[\text{Piano} = \mathbf{P_0} + Span\{\mathbf{v}_1, \mathbf{v}_2\} = \left\{ \mathbf{P_0} + t_1 \mathbf{v}_1 + t_2 \mathbf{v}_2 \mid t_1, t_2 \in \mathbb{R} \right\}\] ove \(\mathbf{P_0}\) è il punto di partenza e \(\mathbf{v}_1, \mathbf{v}_2\) sono i vettori che definiscono il piano.
Un iperpiano in uno spazio \(\mathbb{R}^n\) che passa per il punto \(\mathbf{P_0}\) e viene generato dai vettori \(\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_{n-1}\) è dato da: \[\text{Iperpiano} = \mathbf{P_0} + Span\{\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_{n-1}\} = \left\{ \mathbf{P_0} + t_1 \mathbf{v}_1 + t_2 \mathbf{v}_2 + \dots + t_{n-1} \mathbf{v}_{n-1} \mid t_1, t_2, \dots, t_{n-1} \in \mathbb{R} \right\}\] ove \(\mathbf{P_0}\) è il punto di partenza e i vettori \(\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_{n-1}\) definiscono l’iperpiano.
Esercizio. Si rappresenti la retta \(r: (1,2) + Span \{ (-1,2)\}\).
Esercizio. Si rappresenti il piano \(\pi: (2,4) + Span \{ (3,2),
(2,0)\}\).
Per l’intera durata del corso, si adotterà la convenzione \(P_0 \equiv O(0,...,0)\),poiché gli altri
casi pertengono alla geometria affine.
Esercizio. Si rappresenti la retta \(r: O + Span \{ (1,2)\}\).
Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale. Se \(V\) ammette una base finita,
allora \(\dim_\mathbb{K} (V)=
\#\mathcal{B}\).
Se \(V\) non ammette basi
finite, la dimensione vale \(\dim_\mathbb{K}
(V)=\infty\).
Con il termine base finita si intende un insieme di vettori,
il cui numero, pur essendo eventualmente elevato, risulta essere
finito; mentre una base infinita si considera tale
qualora sia possibile estrarre da essa basi finite. Negli spazi
vettoriali di dimensione infinita, numerosi strumenti che operano
efficacemente in spazi di dimensione finita necessitano di modifiche
affinché possano essere applicati in contesti infiniti. Il corso,
pertanto, si concentrerà esclusivamente sugli spazi vettoriali di
dimensione finita.
Esempio. Si consideri \(\mathbb{K}[x]:= \{ \text{polinomi
nell'indeterminata x a coefficienti in } \mathbb{K}\}\), esso
è un \(\mathbb{K}\)–spazio vettoriale.
Due elementi di tale spazio potrebbero essere \(p(x)=a_nx^n+a_{n-1}x^{n-1}+...+ a_1x+a_0\)
e \(q(x)=b_mx^m+b_{m-1}x^{m-1}+...+
b_1x+b_0\). Questo spazio non ammette base finita, ossia non è
finitamente generato.
Infatti, se si considera un insieme finito di polinomi in \(\mathbb{K}[x]:=\{p_1,...,p_k\}\), si
dichiara che i polinomi hanno grado rispettivamente \(d_1,...,d_k\) e dunque ogni polinomio in
\(Span\{ p_1,...,p_k\}\) ha grado
minore o pari a \(\max
\{d_1,...,d_k\}\).
Esempio. Si consideri \(\mathbb{K}[x]_{\leq d}:= \{ \text{polinomi
nell'indeterminata x a coefficienti in } \mathbb{K} \text{ di grado
minore o pari a d}\}\), esso è un sottospazio vettoriale di \(\mathbb{K}[x]\) a dimensione finita,
infatti \(\dim_\mathbb{K}\mathbb{K}[x]_{\leq
d}=d+1\) e una sua base è \(\mathcal{B}
\equiv ( 1, x, x^2,...,x^d)\).
Osservazione. Uno spazio vettoriale \(V\) è finitamente generato
se e solo se presenta \(\dim V\)
finita.
Esercizio. Perchè \(\dim_\mathbb{K}\mathbb{K}[x]_{\leq d}=d+1\)
e non \(d\)?
Un altro fatto considerevole è che la dimensione di uno spazio vettoriale dipende dal campo scalare considerato.
Esempio. Sia \(\mathbb{Q}
\subset \mathbb{R}\) un sottocampo e sia \(V \equiv \mathbb{R}\) uno spazio
vettoriale. Allora \(\dim_\mathbb{R}(V)=1\) , poiché lo spazio è
costituito da vettori a singola componente. D’altra parte, \(\dim_\mathbb{Q} (V)\) non è uguale a 1,
poiché esistono numeri reali — ossia vettori — che sono indipendenti da
\(\mathbb{Q}\), come ad esempio \(\sqrt{2}\) e \(\pi\) che non appartengono a \(\mathbb{Q}\). Pertanto, \(\dim_\mathbb{Q} (V)= \infty\), in quanto
esistono infiniti numeri reali che non appartengono a \(\mathbb{Q}\), e dunque si ha che \(\dim_\mathbb{Q} (V)=1+ \infty \text{ numeri
reali}= \infty\).
Esempio. Siano \(V\equiv
\mathbb{K}^n\), \(W \equiv
\mathbb{K}^0\) un \(\mathbb{K}\)–spazi vettoriali, allora \(\dim_\mathbb{K}V=n\) e \(\dim_\mathbb{K}W=0\).
Osservazione. \(W\) è
lo spazio vettoriale banale, ossia ha base \(\mathcal{B} \equiv \emptyset\), dato che
tutte le combinazioni lineari di \(\emptyset\) sono nulle e dunque tutti gli
elementi sono linearmente indipendenti.
\[\sum_{\emptyset} := 0\]
Esempio: Se \(I = \emptyset\), allora la somma su \(I\) è definita come:
\[\sum_{i \in \emptyset} f(i) = 0\]
Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale di dimensione finita \(n\), allora:
ogni insieme di vettori linearmente indipendenti di cardinalità \(n\) è una base;
ogni insieme di generatori di cardinalità \(n\) è una base.
Queste due affermazioni si implicano a vicenda, se vale una, vale
anche l’altra.
Esempio. \(\mathbb{R}^3\) presenta una base di \(3\) vettori, mentre \(\mathbb{R}^n\) è dotato di una base di
\(n\) vettori.
Sia \(U \subset V\) un sottospazio vettoriale di \(V\) e sia \(\dim V=n\), allora:
\(\dim U \leq \dim V=n\);
se \(\dim U =n\), allora \(U \equiv V\), ossia \(U \subseteq V \ \ \wedge \ \ V \subseteq U\).
Esercizio. Dimostrare la proposizione appena
data.
Un ulteriore fatto di rilievo è che due sottospazi vettoriali possono
essere sommati o intersecati, ciò significa che essi non sono monadi, ma
possono interagire tra loro.
Per pervenire ad una comprensione intuitiva delle varie proposizioni, è opportuno concepire gli spazi come rette o piani, in modo da ottenere una visione concreta di quanto accade nei diversi casi, laddove ciò sia possibile. Invero, una buona parte di noi matematici ripudia la realtà sensibile e di frequente va rifugiandosi negli iperspazi; tuttavia, anche questi, ahimè, per sopperire alla unheimlich, sono stati sottratti alla nostra sfera d’azione dai gentil signori fisici.
Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale e siano \(U, W\) due sottospazi vettoriali di \(V\). L’intersezione \(U \cap W\) è un sottospazio vettoriale di \(V\).
Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale e siano \(U, W\) due sottospazi vettoriali di \(V\). La somma, da non confondere con unione, \(U + W:=\{u+w: \ u \in U \ \ \wedge \ \ w \in W\}\) è un sottospazio vettoriale di \(V\).
Osservazione. \(U+W
\subset V\) è il più piccolo sottospazio vettoriale di \(V\) contenenete sia \(U\) che \(W\).
Esercizio guidato. Verificare che la seconda
definizione proposta è ben definita:
.......................: \(\vec{0}+\vec{0}=...
\in U+...\)
Chiusura rispetto alla somma: \((u+w)+(w'+...)=[(u+u')\in... \ +(w+...)\in
W ] \in U+W\)
.......................: \(k(u+...)=ku+...w
\in U+W\).
Dalla teoria dianzi esposta, si possono evincere con chiarezza le
modalità attraverso le quali le dimensioni dei sottospazi vettoriali
vanno a rapportano tra loro secondo armoniche relazioni. L’analisi
approfondita della teoria e delle definizioni, permette al matematico di
elevarsi oltre i confini dell’esperienza sensibile, sino a contemplare
enti geometrici che, pur non manifestandosi ai sensi comuni, trovano
esistenza certa nell’ordine astratto della ragione matematica. È in tal
modo che viene resa possibile la formalizzazione di fenomeni concreti
mediante quel rigore assiomatico e severo che il filosofo-matematico
Bertrand Russell designò come la gelida beltà della matematica:
una bellezza priva d’ornamenti, pura e implacabile nella sua logica
interna.
A mo’ d’esempio, si consideri l’apparente paradosso per cui due rette, parallele nello spazio euclideo, vengano a incontrarsi in un punto allorché trasposte nello spazio proiettivo. Tale proposizione, che parrebbe contraddire l’intuizione comune, trova invece piena giustificazione nella struttura nascosta delle relazioni vettoriali dianzi discusse. Privati dell’ausilio di queste invisibili connessioni, siffatte affermazioni rimarrebbero non solo inespresse, ma invero inesplicabili. Il signor David Hilbert, un giorno lontano, forse incautamente, pronunciò la frase: Wir müssen wissen, wir werden wissen, ossia: Dobbiamo sapere, sapremo.
Formula di Grassmann. Sia \(V\) un \(\mathbb{K}\)–spazio vettoriale e siano \(U,W\) due suoi sottospazi vettoriali di dimensione finita, allora vale la seguente relazione: \[\dim ( U \cap W)+\dim (U+W)=\dim U + \dim W\].
Dimostrazione. Si considera una base \(\mathcal{I}\equiv (i_1,...,i_n)\)
dell’intersezione \(U \cap W\) e la si
completa a base di \(U\), ossia \(\mathcal{I}_U \equiv (i_1,...,i_n, u_{1},...,
u_m)\); completando \(\mathcal{I}\) a base di \(W\), si ottiene \(\mathcal{I}_W \equiv (i_1,..., i_n,
w_{1},...,w_k)\).
Ciò significa che \(\dim U \cap W=n, \ \ \dim
U=n+m, \ \ \dim W=n+k\), bisogna dunque dimostrare, per
verificare la veridicità del teorema, che \(\dim U+W=(n+m)+(n+k)-n=n+m+k\). Per farlo,
si dimostra che \(\mathcal{B}\equiv(i_1,...,i_n,
u_{1},...,u_m,v_1,...,v_k)\) è una base di \(U+W\); ossia, bisogna dimostrare che
l’insieme di vettori \(\mathcal{B}\) è
un generatore di \(U+W\) a vettori
linearmente indipendenti.
I vettori di \(\mathcal{B}\) generano
\(U+W\) dato che ogni vettore di \(U\) è combinazione lineare dei vettori di
\(\mathcal{B}\) e ogni vettore di \(W\) è combinazione lineare dei vettori di
\(\mathcal{B}\).
Considerando \(a_1
i_1+...+a_ni_n+b_1u_1+...+b_mu_m+c_1w_1+...+c_kw_k= \vec{0}\), si
ottiene:
\(a_1
i_1+...+a_ni_n+b_1u_1+...+b_mu_m+c_1w_1+...+c_kw_k=
\vec{0}\)
\(a_1 i_1+...+a_ni_n+b_1u_1+...+b_mu_m=
-c_1w_1-...-c_kw_k\).
Si nota però che \(a_1
i_1+...+a_ni_n+b_1u_1+...+b_mu_m=Span
\{i_1,...,i_n,u_1,...,u_m\}\) è in \(U\) perchè ogni vettore di \(U\) è combinazione lineare di quei vettori,
mentre \(-c_1w_1-...-c_kw_k=Span
\{w_1,...,w_k\}\) è in \(W\)
perchè ogni vettore di \(W\) è
combinazione lineare di quei vettori.
Ciò significa che \(Span
\{i_1,...,i_n,u_1,...,u_m\}=Span \{w_1,...,w_k\}\), ossia \(Span \{w_1,...,w_k\}\) appartiene anche a
\(U\) e dunque \(Span \{w_1,...,w_k\} \in U \cap W\). Ma
\(U \cap W \equiv Span \{
\mathcal{I}\}\).
Sia ora \(x:=-c_1w_1-...-c_kw_k\), è
stato dimostrato che \(x \in U \cap W\)
e quindi \(x\) può essere scritto come
combinazione lineare dei vettori della base \(\mathcal{I}\), ossia \(x=d_1i_1+...+d_ni_n\). Mettendo a confronto
le espressioni del vettore, si ottiene:
\(x=d_1i_1+...+d_ni_n=-c_1w_1-...-c_kw_k=a_1
i_1+...+a_ni_n+b_1u_1+...+b_mu_m\)
ossia \(d_1i_1+...+d_ni_n=a_1
i_1+...+a_ni_n+b_1u_1+...+b_mu_m\)
\(i_1(d_1-a_1)+...+i_n(d_n-a_n)=b_1u_1+...+b_mu_m\)
\(i_1(d_1-a_1)+...+i_n(d_n-a_n)-b_1u_1-...-b_mu_m=
\vec{0}\)
Si osserva che \(\{i_1,...,i_n,u_1,...,u_m\}\) è una base di
\(U\), quindi è linearmente
indipendente e dunque l’unica combinazione lineare nulla si ha quando
\(d_1-a_1=...=d_n-a_n=b_1=...=b_m=0\).
Facendo lo stesso per la parte in \(W\), ossia \(d_1i_1+...+d_ni_n=-c_1w_1-...-c_kw_k\), si
ottiene che \(\{i_1,...,i_n,w_1,...,w_k\}\) è una base di
\(W\), quindi è linearmente
indipendente e dunque l’unica combinazione lineare nulla si ha quando
tutti i coefficienti sono nulli.
Si ha dunque che \(b_1=...=b_m=c_1=...=c_k=0\) e che \(a_j = d_j\) per ogni \(j\), e quindi, dalla combinazione
iniziale:
\[a_1 i_1 + \dots + a_n i_n = -d_1 i_1 - \dots - d_n i_n = -a_1 i_1 - \dots - a_n i_n,\]
ossia: \(2a_1 i_1 + \dots + 2a_n i_n = \vec{0}\).
Essendo \(\{i_1, \dots, i_n\}\)
linearmente indipendenti, concludiamo che anche: \(a_1 = \dots = a_n = 0\). Essendo \(\{i_1,...,i_n\}\) linearmente indipendenti,
si ha che \(a_1=...=a_n=0\).
Si conclude affermando che l’unica combinazione lineare nulla dei
vettori di \(\mathcal{B}\) è quella a
coefficienti tutti nulli e dunque \(\mathcal{B}\) è linearmente indipendente.
Inoltre, come già detto, \(\mathcal{B}\) genera \(U+W\), pertanto \[\dim(U + W) =
\dim\operatorname{Span}(\mathcal{B}) = n + m + k = (n + m) + (n + k) - n
= \dim U + \dim W - \dim(U \cap W),\]
ossia:
\[\dim(U \cap W) + \dim(U + W) = \dim U +
\dim W.\] 0◻
Esempio. Sia \(V = \mathbb{R}^4\) e siano dati i seguenti sottospazi vettoriali di \(V\):
\(U = \operatorname{Span}\left\{ \begin{pmatrix} 1 \\ 0 \\ 0 \\ 1 \end{pmatrix}, \begin{pmatrix} 0 \\ 1 \\ 0 \\ 1 \end{pmatrix} \right\}\)
\(W = \operatorname{Span}\left\{ \begin{pmatrix} 1 \\ 1 \\ 0 \\ 2 \end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 1 \\ 0 \end{pmatrix} \right\}\)
. Si individuano le dimensioni:
\(\dim U = 2\) (i due vettori sono linearmente indipendenti)
\(\dim W = 2\) (i due vettori sono linearmente indipendenti)
Si individuano i vettori \(v \in \mathbb{R}^4\) che appartengono sia a \(U\) che a \(W\), ossia a \(U \cap W\).
Sia: \[v \in U \cap W \iff \begin{cases} v = a \begin{pmatrix}1\\0\\0\\1\end{pmatrix} + b \begin{pmatrix}0\\1\\0\\1\end{pmatrix} \\ v = c \begin{pmatrix}1\\1\\0\\2\end{pmatrix} + d \begin{pmatrix}0\\0\\1\\0\end{pmatrix} \end{cases}\]
Si scrive \(v\) da entrambe le parti: \[v = \begin{pmatrix} a \\ b \\ 0 \\ a + b \end{pmatrix} = \begin{pmatrix} c \\ c \\ d \\ 2c \end{pmatrix}\]
Eguagliando i componenti:
\[\begin{cases} a = c \\ b = c \\ 0 = d \\ a + b = 2c \end{cases}\Rightarrow \begin{cases} a = c \\ b = c \\ d = 0 \\ a + b = 2c \end{cases}\]
Poiché \(a = b = c\), allora \(a + b = 2a = 2c\), che è coerente.
Dunque l’intersezione è: \[U \cap W = \operatorname{Span} \left\{ \begin{pmatrix}1\\1\\0\\2\end{pmatrix} \right\} \Rightarrow \dim(U \cap W) = 1\] Si utilizza Grassmann. \[\dim(U + W) = \dim U + \dim W - \dim(U \cap W) = 2 + 2 - 1 = 3\]
Per verificarne la correttezza, si trova una base di \(U + W\) unendo le basi:
\[\left\{ \begin{pmatrix}1\\0\\0\\1\end{pmatrix}, \begin{pmatrix}0\\1\\0\\1\end{pmatrix}, \begin{pmatrix}0\\0\\1\\0\end{pmatrix} \right\}\]
Questi tre vettori sono linearmente indipendenti e generano \(U + W\), quindi: \[\dim(U + W) = 3\] che coincide con il risultato ottenuto con la formula.
Esercizio. Siano \(U\) e \(W\) due sottospazi di \(\mathbb{R}^3\), rappresentanti
rispettivamente una retta e un piano, come mostrato in figura. Supposta
nota la dimensione degli enti geometrici — punto: \(0\), retta: \(1\), piano: \(2\) — si richiede di determinare, per via
grafica, le dimensioni dei sottospazi \(U\), \(W\), della loro intersezione \(U \cap W\) e della loro somma \(U + W\).
Si esorta altresì a distinguere visivamente, mediante colori differenti,
i sottospazi \(U \cap W\) e \(U + W\).
Un’altra interazione interessante tra sottospazi vettoriali, è quella di somma diretta definita come segue.
Siano \(V\) uno spazio vettoriale su un campo \(\mathbb{K}\), e \(U, W \subseteq V\) due sottospazi vettoriali.
La somma diretta di \(U\) e \(W\) è definita come: \[U \oplus W = \{ v \in V \mid v = u + w,\; u \in U,\; w \in W \}\] con la condizione che: \[U \cap W = \{0\}\]
In tal caso, ogni vettore \(v \in U \oplus W\) può essere scritto in modo unico come somma \(v = u + w\), con \(u \in U\), \(w \in W\).
Se la condizione \(U \cap W = \{0\}\) non è soddisfatta, la somma \(U + W\) non è diretta.
Il seguente prospetto evidenzia le particolarità della somma diretta
rispetto a quella comune.
Siano \(U, W \subseteq V\) due
sottospazi vettoriali di uno spazio vettoriale \(V\) su un campo \(\mathbb{K}\).
Somma comune: \[U + W = \{ u + w \mid u \in U,\, w \in W \}\] In generale, la decomposizione \(v = u + w\) non è unica. Infatti, se \(U \cap W \neq \{0\}\), possono esistere \(u_1 \neq u_2 \in U\), \(w_1 \neq w_2 \in W\) tali che \(u_1 + w_1 = u_2 + w_2\).
Somma diretta: \[U \oplus W = U + W \quad \text{con} \quad U \cap W = \{0\}\] In tal caso, ogni \(v \in U \oplus W\) ammette una unica scrittura come somma: \[v = u + w \quad \text{con } u \in U,\, w \in W\]
Nota. Se \(\dim V\)
è finita e \(V \equiv U \oplus W\),
allora \(\dim V= \dim U +\dim
W\).
Una ovvia proposizione è la seguente.
Sia \(V\) uno spazio vettoriale a dimensione finita e siano \(U,W\) suoi sottospazi vettoriali. Sono equivalenti le seguenti:
\(V \equiv U \oplus W\)
\(V\equiv U+W \ \ \wedge \ \ \dim V= \dim U +\dim W\)
\(U \cap W \equiv \{\vec{0}\} \ \ \wedge \ \ \dim V= \dim U + \dim W\)
Più in generale, quando uno spazio vettoriale \(V\) è somma diretta dei suoi sottospazi
vettoriali \(U_1, \dots, U_n\), si
scrive \[V \equiv U_1 \oplus U_2 \oplus \dots
\oplus U_n \equiv \bigoplus_{i=1}^n U_i\] se \[V = U_1 + U_2 + \dots + U_n \quad \text{e} \quad
U_i \cap \left( \sum_{\substack{j=1 \\ j \ne i}}^n U_j \right) = \{0\}
\quad \text{per ogni } i = 1, \dots, n.\] Inoltre, se \(\mathcal{B_i}\) è una base di \(U_i\), vale che \(\bigcup_{i=1}^n B_i\) è una base di \(V\).
Esercizio. Mostrare che \[U_1 = \operatorname{Span}\{e_1\}, \quad U_2 =
\operatorname{Span}\{e_2\}, \quad U_3 =
\operatorname{Span}\{e_3\}\] sono in somma diretta e che \[\mathbb{R}^3 = U_1 \oplus U_2 \oplus
U_3.\]
Esercizio. Decomporre lo spazio vettoriale \(V \equiv \mathbb{Q}^5\) come somma diretta
di sottospazi vettoriali.
\([...]\) “Sostanza” nel senso piú proprio, in primo luogo e nella piú grande misura, è quella che non si dice di un qualche sostrato, né è in un qualche sostrato, ad esempio, un determinato uomo, o un determinato cavallo. D’altro canto, sostanze seconde si dicono le specie, cui sono immanenti le sostanze che si dicono prime, ed oltre alle specie, i generi di queste. Ad esempio, un determinato uomo è immanente ad una specie, cioè alla nozione di uomo, e d’altra parte il genere di tale specie è la nozione di animale. \([...]\)
\([...]\) la ragione per cui le sostanze prime si dicono sostanze in massimo grado consiste nel fatto che esse stanno alla base di tutti gli altri oggetti, e che tutti gli altri oggetti si predicano di esse, oppure sussistono in esse. \([...]\)
\([...]\) È cosí giustificato, prescindendo dalle sostanze prime, che le specie e i generi siano i soli tra gli oggetti a dirsi “sostanze seconde”: tra i predicati, in effetti, essi solo rivelano la sostanza prima. Se qualcuno, invero, deve spiegare che cos’è un determinato uomo, dà una spiegazione appropriata fornendo la specie oppure il genere; d’altra parte, dichiarando che tale oggetto è “uomo”, lo rende piú noto di quanto non faccia dichiarando che è “animale”. Nel caso invece che costui fornisca una qualche altra nozione, dicendo ad esempio che un determinato uomo è “bianco” o “corre”, oppure facendo una qualsiasi altra dichiarazione consimile, avrà dato una spiegazione estranea all’oggetto. È di conseguenza giustificato che tra gli altri oggetti soltanto quelli nominati si dicano sostanze. \([...]\) Oltre a ciò, le sostanze prime sono sostanze nel senso piú proprio in quanto stanno alla base di tutti gli altri oggetti. Orbene, precisamente allo stesso modo con cui le sostanze prime si comportano rispetto a tutti gli altri oggetti, cosí si comportano rispetto a tutti i rimanenti le specie e i generi delle sostanze prime. In realtà, tutti i rimanenti oggetti vengono predicati delle specie e dei generi. Tu dirai infatti di un determinato uomo che è “grammatico”, e quindi dirai pure di uomo e di animale che è “grammatico”. Lo stesso vale per gli altri casi. \([...]\)
Prima di introdurre la nozione di anello nell’ambito
dell’algebra astratta, ottenuta più familiriatà con enti astratti, è
necessario fornire un ulteriore preliminare uitle al corso, un nuovo
campo numerico fondamentale: quello dei numeri
complessi.
Per acquisire una piena ed esatta comprensione degli argomenti
presenti in questo paragrafo, si richiede
imprescindibilmente il possesso di solide nozioni
relative alla goniometria e alla trigonometria di base.
La più antica menzione di tali enti risale al I secolo a.C. ed è rintracciabile negli scritti di Erone d’Alessandria, ove se ne trova un riferimento nella determinazione del volume di una piramide tagliata da due piani non paralleli.
Una loro manifestazione in forma più strutturata è collocabile nel secolo XVI, allorché, affrontando il problema della risoluzione delle equazioni cubiche, Scipione del Ferro, Niccolò Tartaglia e Gerolamo Cardano s’imbatterono, per necessità di calcolo, nell’impiego di radicali di quantità negative, sebbene il fine ultimo fosse il reperimento di soluzioni reali.
Tal fenomeno, invero, suscitò non poco stupore negli animi de’ matematici del tempo, già riluttanti ad accogliere nell’ordine delle quantità legittime persino i numeri negativi. Fu Rafael Bombelli a considerare per primo tali numeri con serietà e rigore, gettando le basi d’un’algebra coerente e stabilendo un primo sistema di regole atte a operar con essi, anticipando, in certa guisa, il linguaggio moderno.
Nel secolo seguente, René Descartes coniò la voce immaginario per designare queste forme numeriche, riflettendo l’opinione comune che le reputava non già enti reali, bensì mere finzioni del calcolo. La piena accettazione della loro natura e utilità non si compì che sul finire del secolo XVIII, quando Caspar Wessel, nella sua memoria presentata agli Atti dell’Accademia Reale di Copenhaghen nell’anno 1799, offrì una rappresentazione geometrica de’ numeri complessi, nitida e completa, degna d’esser posta accanto ai trattati più moderni. In detta memoria, l’autore giunge altresì a considerazioni d’ordine superiore, estendendo la teoria sino alla sfera e proponendo un sistema trigonometrico fondato sui quaternioni.
Nel 1804, l’abate Buée pervenne alla medesima idea già vagamente adombrata da John Wallis nel suo De Algebra tractatus (1685), secondo il quale l’unità immaginaria, vale a dire \({\sqrt {-1}}\), dovesse rappresentare una linea situata a metà fra un numero ed il suo opposto, e, soprattutto, perpendicolare all’asse reale.
testo esercizio