Riassunti algebra lineare

Riassunti algebra lineare
Riassunti algebra lineare
Riassunti algebra lineare

Versione italiana

Riassunti algebra lineare

Vettori

Definizione di Vettore

Un vettore è un’entità matematica che ha sia una magnitudine (lunghezza) che una direzione. Può essere rappresentato in diverse dimensioni, ma iniziamo con i vettori bidimensionali e tridimensionali.

  • Vettore in 2D: Un vettore può essere rappresentato come \mathbf{v} = (x, y)v=(x,y)\mathbf{v} = (x, y), dove xxx e yyy sono le sue componenti lungo gli assi x e y.
  • Vettore in 3D: Un vettore può essere rappresentato come \mathbf{v} = (x, y, z)v=(x,y,z)\mathbf{v} = (x, y, z), dove zzz è la componente lungo l’asse z.

Operazioni sui Vettori

Somma di Vettori

La somma di due vettori \mathbf{u} = (u_1, u_2)u=(u1,u2)\mathbf{u} = (u_1, u_2) e \mathbf{v} = (v_1, v_2)v=(v1,v2)\mathbf{v} = (v_1, v_2) è data da:

\mathbf{u} + \mathbf{v} = (u_1 + v_1, u_2 + v_2)
u+v=(u1+v1,u2+v2)\mathbf{u} + \mathbf{v} = (u_1 + v_1, u_2 + v_2)

In termini geometrici, la somma di vettori può essere visualizzata come il “metodo del parallelogramma”.

Prodotto per uno Scalare

Moltiplicando un vettore \mathbf{v} = (x, y)v=(x,y)\mathbf{v} = (x, y) per uno scalare kkk, otteniamo:

k \cdot \mathbf{v} = (k \cdot x, k \cdot y)
kv=(kx,ky)k \cdot \mathbf{v} = (k \cdot x, k \cdot y)

Questo modifica la magnitudine del vettore senza cambiarne la direzione (se k > 0k>0k > 0) o invertendola (se k < 0k<0k < 0).

Prodotto Scalare

Il prodotto scalare di due vettori \mathbf{u} = (u_1, u_2)u=(u1,u2)\mathbf{u} = (u_1, u_2) e \mathbf{v} = (v_1, v_2)v=(v1,v2)\mathbf{v} = (v_1, v_2) è dato da:

\mathbf{u} \cdot \mathbf{v} = u_1 v_1 + u_2 v_2
uv=u1v1+u2v2\mathbf{u} \cdot \mathbf{v} = u_1 v_1 + u_2 v_2

Il prodotto scalare fornisce informazioni sulla direzione relativa dei due vettori: se è positivo, i vettori puntano nella stessa direzione; se è zero, sono perpendicolari; se è negativo, puntano in direzioni opposte.

Matrici

Definizione di Matrice

Una matrice è una tabella rettangolare di numeri organizzata in righe e colonne. Una matrice di dimensione m \times nm×nm \times n ha mmm righe e nnn colonne.

Esempio

Una matrice 2x3 potrebbe apparire così:

A = 
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
A=(a11a12a13a21a22a23)A = \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix}

Operazioni sulle Matrici

Somma di Matrici

Due matrici possono essere sommate solo se hanno le stesse dimensioni. La somma è ottenuta sommando gli elementi corrispondenti:

C = A + B
C=A+BC = A + B

dove C_{ij} = A_{ij} + B_{ij}Cij=Aij+BijC_{ij} = A_{ij} + B_{ij}.

Prodotto di Matrici

Il prodotto di due matrici A(m \times n)A(m×n)A(m \times n) e B(n \times p)B(n×p)B(n \times p) produce una matrice C(m \times p)C(m×p)C(m \times p). Ogni elemento della matrice risultante è calcolato come segue:

C_{ij} = \sum_{k=1}^{n} A_{ik} B_{kj}
Cij=k=1nAikBkjC_{ij} = \sum_{k=1}^{n} A_{ik} B_{kj}

Questo significa che ogni elemento della riga i della prima matrice viene moltiplicato per ogni elemento della colonna j della seconda matrice e poi sommati.

Matrice Inversa

La matrice inversa di una matrice quadrata AAA, denotata come A^{-1}A1A^{-1}, è tale che:

A A^{-1} = I
AA1=IA A^{-1} = I

dove III è la matrice identità. Non tutte le matrici hanno un’inversa; una condizione necessaria è che la matrice sia quadrata e abbia determinante diverso da zero.

Sistemi di Equazioni Lineari

Rappresentazione Matriciale

Un sistema di equazioni lineari può essere scritto nella forma matriciale:

Ax = b
Ax=bAx = b

dove:

  • AAA è la matrice dei coefficienti,
  • xxx è il vettore delle variabili,
  • bbb è il vettore dei termini noti.

Risoluzione dei Sistemi

Eliminazione di Gauss

Questo metodo consiste nel trasformare il sistema in una forma triangolare superiore attraverso operazioni elementari sulle righe. Una volta in questa forma, si può risolvere il sistema tramite sostituzione all’indietro.

Scomposizione LU

La scomposizione LU consiste nel decomporre la matrice AAA in un prodotto di una matrice triangolare inferiore LLL e una triangolare superiore UUU:

A = LU
A=LUA = LU

Questa scomposizione facilita la risoluzione dei sistemi lineari.

Calcolo del Rango di una Matrice

Il rango di una matrice è definito come il numero massimo di righe (o colonne) linearmente indipendenti. Può essere calcolato utilizzando diversi metodi, tra cui la riduzione a scala e l’analisi dei minori.

Metodo della Riduzione a Scala

  1. Imposta la matrice: Inizia con la matrice che desideri analizzare.
  2. Riduci la matrice: Usa operazioni elementari sulle righe per portare la matrice in forma di scala (o forma normale di Gauss). Questo significa che dovresti ottenere zeri sotto i pivot (elementi non nulli) in ogni colonna.
  3. Conta i pivot: Il rango è uguale al numero di righe non nulle nella matrice ridotta. Ogni riga non nulla rappresenta un vettore linearmente indipendente.

Esempio

Consideriamo la matrice:

A = \begin{pmatrix}
1 & 2 & 3 \\
0 & 1 & 4 \\
0 & 0 & 0
\end{pmatrix}
A=(123014000)A = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 0 & 0 & 0 \end{pmatrix}

Dopo la riduzione, possiamo vedere che ci sono due righe non nulle. Quindi, il rango di AAA è 2.

Metodo dei Minori

  1. Trova i minori: Calcola i determinanti delle sottomatrici quadrate della matrice.
  2. Identifica il massimo ordine: Il rango è il più grande ordine kkk per cui esiste almeno un minore di ordine kkk con determinante diverso da zero.

Calcolo del Determinante di una Matrice

Il determinante è un valore scalare associato a una matrice quadrata che fornisce informazioni sulle proprietà della matrice, come l’invertibilità.

Metodo per Calcolare il Determinante

  1. Matrice 2x2: Per una matrice A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}A=(abcd)A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}, il determinante è calcolato come:

    \text{det}(A) = ad - bc
    det(A)=adbc\text{det}(A) = ad - bc
  2. Matrice 3x3: Per una matrice B = \begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \end{pmatrix}B=(abcdefghi)B = \begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \end{pmatrix}, il determinante può essere calcolato usando la regola di Sarrus o l’espansione per cofattori:

    \text{det}(B) = a(ei - fh) - b(di - fg) + c(dh - eg)
    det(B)=a(eifh)b(difg)+c(dheg)\text{det}(B) = a(ei - fh) - b(di - fg) + c(dh - eg)
  3. Matrice di ordine superiore: Per matrici più grandi, si utilizza l’espansione per cofattori:

    • Scegli una riga o colonna.
    • Calcola il determinante delle sottomatrici ottenute eliminando la riga e colonna dell’elemento scelto.
    • Moltiplica ciascun determinante per il cofattore corrispondente (che tiene conto della posizione dell’elemento).

Esempio

Consideriamo la matrice:

C = \begin{pmatrix}
1 & 2 & 3 \\
0 & 1 & 4 \\
5 & 6 & 0
\end{pmatrix}
C=(123014560)C = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 5 & 6 & 0 \end{pmatrix}

Utilizzando l’espansione per cofattori sulla prima riga:

\text{det}(C) = 1\cdot\text{det}\begin{pmatrix} 1 & 4 \\ 6 & 0 \end{pmatrix} - 2\cdot\text{det}\begin{pmatrix} 0 & 4 \\ 5 & 0 \end{pmatrix} + 3\cdot\text{det}\begin{pmatrix} 0 & 1 \\ 5 & 6 \end{pmatrix}
det(C)=1det(1460)2det(0450)+3det(0156)\text{det}(C) = 1\cdot\text{det}\begin{pmatrix} 1 & 4 \\ 6 & 0 \end{pmatrix} - 2\cdot\text{det}\begin{pmatrix} 0 & 4 \\ 5 & 0 \end{pmatrix} + 3\cdot\text{det}\begin{pmatrix} 0 & 1 \\ 5 & 6 \end{pmatrix}

Calcolando i determinanti delle sottomatrici e sommando i risultati otteniamo il determinante finale.

Spazi Vettoriali

Definizione di Spazio Vettoriale

Uno spazio vettoriale è un insieme di vettori che può essere scalato e sommato seguendo determinate regole. Gli spazi vettoriali sono definiti su un campo, tipicamente i numeri reali (\mathbb{R}R\mathbb{R}) o complessi (\mathbb{C}C\mathbb{C}).

Proprietà Fondamentali degli Spazi Vettoriali

  1. Chiusura sotto la Somma: Se \mathbf{u}u\mathbf{u} e \mathbf{v}v\mathbf{v} sono vettori nello spazio, allora anche \mathbf{u} + \mathbf{v}u+v\mathbf{u} + \mathbf{v} è nello spazio.
  2. Chiusura sotto il Prodotto per uno Scalare: Se \mathbf{u}u\mathbf{u} è un vettore nello spazio e ccc è uno scalare, allora c\mathbf{u}cuc\mathbf{u} è nello spazio.
  3. Esistenza del Vettore Nullo: Esiste un vettore nullo \mathbf{0}0\mathbf{0} tale che \mathbf{u} + \mathbf{0} = \mathbf{u}u+0=u\mathbf{u} + \mathbf{0} = \mathbf{u} per ogni vettore \mathbf{u}u\mathbf{u}.
  4. Esistenza degli Inversi Additivi: Per ogni vettore \mathbf{u}u\mathbf{u}, esiste un vettore -\mathbf{u}u-\mathbf{u} tale che \mathbf{u} + (-\mathbf{u}) = \mathbf{0}u+(u)=0\mathbf{u} + (-\mathbf{u}) = \mathbf{0}.
  5. Associatività e Commutatività della Somma: La somma di vettori è associativa e commutativa.
  6. Distributività: La moltiplicazione per uno scalare distribuisce rispetto alla somma di vettori e scalari.

Dimensione e Base

  • Base: Un insieme di vettori in uno spazio vettoriale è una base se i vettori sono linearmente indipendenti e generano l’intero spazio.
  • Dimensione: La dimensione di uno spazio vettoriale è il numero di vettori in una base. Ad esempio, lo spazio \mathbb{R}^nRn\mathbb{R}^n ha dimensione nnn.

Trasformazioni Lineari

Definizione di Trasformazione Lineare

Una trasformazione lineare è una funzione T: V \rightarrow WT:VWT: V \rightarrow W tra due spazi vettoriali VVV e WWW che soddisfa le seguenti proprietà:

  1. Additività: T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v})T(u+v)=T(u)+T(v)T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v}) per ogni \mathbf{u}, \mathbf{v} \in Vu,vV\mathbf{u}, \mathbf{v} \in V.
  2. Omogeneità: T(c\mathbf{u}) = cT(\mathbf{u})T(cu)=cT(u)T(c\mathbf{u}) = cT(\mathbf{u}) per ogni scalare ccc e ogni vettore \mathbf{u} \in VuV\mathbf{u} \in V.

Matrice Associata a una Trasformazione Lineare

Ogni trasformazione lineare può essere rappresentata da una matrice. Se consideriamo una trasformazione lineare T: V^n \rightarrow W^mT:VnWmT: V^n \rightarrow W^m, la matrice associata a questa trasformazione è una matrice A_{m\times n}Am×nA_{m\times n} tale che:

T(\mathbf{x}) = A\mathbf{x}
T(x)=AxT(\mathbf{x}) = A\mathbf{x}

dove A\mathbf{x}AxA\mathbf{x} rappresenta il prodotto della matrice con il vettore colonna \mathbf{x}x\mathbf{x}.

Esempio di Trasformazione Lineare

Consideriamo la trasformazione lineare definita da:

T: 
\begin{pmatrix}
x \\ 
y 
\end{pmatrix}
\mapsto 
\begin{pmatrix}
a & b \\ 
c & d 
\end{pmatrix}
\begin{pmatrix}
x \\ 
y 
\end{pmatrix}
T:(xy)(abcd)(xy)T: \begin{pmatrix} x \\ y \end{pmatrix} \mapsto \begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}

Questa rappresenta una trasformazione lineare nel piano.

Proprietà delle Trasformazioni Lineari

  • Identità: La trasformazione identità è definita come I(\mathbf{x}) = A\mathbf{x} = \mathbf{x}I(x)=Ax=xI(\mathbf{x}) = A\mathbf{x} = \mathbf{x}.
  • Composizione di Trasformazioni: Se abbiamo due trasformazioni lineari T_1: V_1 → W_1T1:V1W1T_1: V_1 → W_1 e T_2: W_1 → W_2T2:W1W2T_2: W_1 → W_2, la composizione è definita come:
(T_2 ∘ T_1)(\mathbf{x}) = T_2(T_1(\mathbf{x}))
(T2T1)(x)=T2(T1(x))(T_2 ∘ T_1)(\mathbf{x}) = T_2(T_1(\mathbf{x}))

La matrice associata alla composizione è il prodotto delle matrici associate:

A_{T_2 ∘ T_1} = A_{T_2} A_{T_1}
AT2T1=AT2AT1A_{T_2 ∘ T_1} = A_{T_2} A_{T_1}

Invertibilità delle Trasformazioni Lineari

Una trasformazione lineare è invertibile se esiste una trasformazione inversa T^{-1}: W → VT1:WVT^{-1}: W → V tale che:

T^{-1}(T(\mathbf{x})) = I_V(\mathbf{x})
T1(T(x))=IV(x)T^{-1}(T(\mathbf{x})) = I_V(\mathbf{x})

Una condizione necessaria affinché una trasformazione lineare sia invertibile è che la matrice associata sia invertibile (cioè, il suo determinante deve essere diverso da zero).

Autovalori e autovettori

Definizione di Autovettore e Autovalore

Un autovettore di una matrice AAA è un vettore non nullo \mathbf{v}v\mathbf{v} tale che, quando viene applicata la trasformazione lineare rappresentata da AAA, il risultato è un multiplo scalare di \mathbf{v}v\mathbf{v}. Matematicamente, questo può essere espresso come:

A\mathbf{v} = \lambda \mathbf{v}
Av=λvA\mathbf{v} = \lambda \mathbf{v}

dove:

  • AAA è una matrice quadrata.
  • \mathbf{v}v\mathbf{v} è l’autovettore.
  • \lambdaλ\lambda è lo autovalore corrispondente a \mathbf{v}v\mathbf{v}.

L’insieme di tutti gli autovalori di una matrice è chiamato spettro della matrice, denotato con \sigma(A)σ(A)\sigma(A).

Autospazio

Gli autovettori che condividono lo stesso autovalore \lambdaλ\lambda formano un sottospazio vettoriale chiamato autospazio relativo a \lambdaλ\lambda, denotato come E(\lambda)E(λ)E(\lambda). Questo autospazio include tutti i vettori che possono essere scritti come combinazioni lineari degli autovettori associati a \lambdaλ\lambda.

Condizione per l’Esistenza degli Autovettori

Per trovare gli autovettori e gli autovalori, si parte dalla seguente equazione:

(A - \lambda I)\mathbf{v} = 0
(AλI)v=0(A - \lambda I)\mathbf{v} = 0

dove:

  • III è la matrice identità della stessa dimensione di AAA.
  • La condizione per avere autovettori non nulli è che il determinante della matrice (A - \lambda I)(AλI)(A - \lambda I) sia zero:
\text{det}(A - \lambda I) = 0
det(AλI)=0\text{det}(A - \lambda I) = 0

Questa equazione è nota come equazione caratteristica e permette di trovare gli autovalori.

Calcolo degli Autovalori e Autovettori

Passaggi per il Calcolo

  1. Trova gli Autovalori:

    • Calcola il determinante della matrice (A - \lambda I)(AλI)(A - \lambda I).
    • Risolvi l’equazione caratteristica per trovare i valori di \lambdaλ\lambda.
  2. Trova gli Autovettori:

    • Per ogni autovalore trovato, sostituisci $$ \lambda $$ nell’equazione (A - \lambda I)\mathbf{v} = 0(AλI)v=0(A - \lambda I)\mathbf{v} = 0.
    • Risolvi il sistema di equazioni risultante per trovare i vettori non nulli \mathbf{v}v\mathbf{v}.

Applicazioni lineari

Le applicazioni lineari sono funzioni che collegano due spazi vettoriali e rispettano le operazioni di somma e moltiplicazione per uno scalare. Queste applicazioni sono fondamentali in algebra lineare e hanno molteplici applicazioni in matematica e nelle scienze.

Definizione di Applicazione Lineare

Siano VVV e WWW due spazi vettoriali su un campo KKK. Un’applicazione f: V \rightarrow Wf:VWf: V \rightarrow W è detta lineare se soddisfa le seguenti proprietà:

  1. Additività:
    f(\mathbf{u} + \mathbf{v}) = f(\mathbf{u}) + f(\mathbf{v}) \quad \forall \mathbf{u}, \mathbf{v} \in V
    f(u+v)=f(u)+f(v)u,vVf(\mathbf{u} + \mathbf{v}) = f(\mathbf{u}) + f(\mathbf{v}) \quad \forall \mathbf{u}, \mathbf{v} \in V
  2. Omogeneità:
    f(a \cdot \mathbf{u}) = a \cdot f(\mathbf{u}) \quad \forall a \in K, \, \forall \mathbf{u} \in V
    f(au)=af(u)aK,uVf(a \cdot \mathbf{u}) = a \cdot f(\mathbf{u}) \quad \forall a \in K, \, \forall \mathbf{u} \in V

Queste due proprietà possono essere riassunte in una singola condizione:

f(a\mathbf{u} + b\mathbf{v}) = af(\mathbf{u}) + bf(\mathbf{v}) \quad \forall a, b \in K, \, \forall \mathbf{u}, \mathbf{v} \in V
f(au+bv)=af(u)+bf(v)a,bK,u,vVf(a\mathbf{u} + b\mathbf{v}) = af(\mathbf{u}) + bf(\mathbf{v}) \quad \forall a, b \in K, \, \forall \mathbf{u}, \mathbf{v} \in V

Esempi di Applicazioni Lineari

Esempio 1: Applicazione Lineare Semplice

Consideriamo l’applicazione f: \mathbb{R}^2 \rightarrow \mathbb{R}^2f:R2R2f: \mathbb{R}^2 \rightarrow \mathbb{R}^2 definita da:

f\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 2x \\ 3y \end{pmatrix}
f(xy)=(2x3y)f\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 2x \\ 3y \end{pmatrix}

Verifichiamo la linearità:

  • Additività:
    Se prendiamo due vettori v_1 = (x_1, y_1)v1=(x1,y1)v_1 = (x_1, y_1) e v_2 = (x_2, y_2)v2=(x2,y2)v_2 = (x_2, y_2):
    f(v_1 + v_2) = f\begin{pmatrix} x_1 + x_2 \\ y_1 + y_2 \end{pmatrix} = 
    \begin{pmatrix} 2(x_1 + x_2) \\ 3(y_1 + y_2) \end{pmatrix} = 
    \begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} + 
    \begin{pmatrix} 2x_2 \\ 3y_2 \end{pmatrix} = f(v_1) + f(v_2)
    f(v1+v2)=f(x1+x2y1+y2)=(2(x1+x2)3(y1+y2))=(2x13y1)+(2x23y2)=f(v1)+f(v2)f(v_1 + v_2) = f\begin{pmatrix} x_1 + x_2 \\ y_1 + y_2 \end{pmatrix} = \begin{pmatrix} 2(x_1 + x_2) \\ 3(y_1 + y_2) \end{pmatrix} = \begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} + \begin{pmatrix} 2x_2 \\ 3y_2 \end{pmatrix} = f(v_1) + f(v_2)
  • Omogeneità:
    Per un scalare aaa:
    f(a v_1) = f\begin{pmatrix} ax_1 \\ ay_1 \end{pmatrix} = 
    \begin{pmatrix} 2(ax_1) \\ 3(ay_1) \end{pmatrix} = 
    a\begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} = a f(v_1)
    f(av1)=f(ax1ay1)=(2(ax1)3(ay1))=a(2x13y1)=af(v1)f(a v_1) = f\begin{pmatrix} ax_1 \\ ay_1 \end{pmatrix} = \begin{pmatrix} 2(ax_1) \\ 3(ay_1) \end{pmatrix} = a\begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} = a f(v_1)

Esempio 2: Applicazione Non Lineare

Consideriamo l’applicazione g: R^3 → R^2g:R3R2g: R^3 → R^2 definita da:

g\begin{pmatrix} x \\ y \\ z \end{pmatrix} = 
\begin{pmatrix} xy \\ x - z^2 \end{pmatrix}
g(xyz)=(xyxz2)g\begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} xy \\ x - z^2 \end{pmatrix}

Verifichiamo la linearità:

  • Additività:
    Calcoliamo g(v_1 + v_2) = g(v_1) + g(v_2)g(v1+v2)=g(v1)+g(v2)g(v_1 + v_2) = g(v_1) + g(v_2). Poiché il primo componente è un prodotto (non lineare), non soddisfa la linearità.
  • Conclusione: Questa applicazione non è lineare.

Nucleo e Immagine

Nucleo

Il nucleo di un’applicazione lineare f: V → Wf:VWf: V → W è l’insieme di tutti i vettori in VVV che vengono mappati nel vettore nullo in WWW:

\text{Nucleo}(f) = { v ∈ V | f(v) = 0 }
Nucleo(f)=vVf(v)=0\text{Nucleo}(f) = { v ∈ V | f(v) = 0 }

Immagine

L’immagine di un’applicazione lineare è l’insieme di tutti i vettori in WWW che sono immagini di vettori in VVV:

\text{Immagine}(f) = { w ∈ W | w = f(v), v ∈ V }
Immagine(f)=wWw=f(v),vV\text{Immagine}(f) = { w ∈ W | w = f(v), v ∈ V }

Matrice Associata a un’Applicazione Lineare

Ogni applicazione lineare può essere rappresentata da una matrice. Se consideriamo un’applicazione lineare f: R^n → R^mf:RnRmf: R^n → R^m, possiamo associare una matrice A_{m\times n}Am×nA_{m\times n}. L’applicazione può essere espressa come:

f(\mathbf{x}) = A\mathbf{x}
f(x)=Axf(\mathbf{x}) = A\mathbf{x}

dove AAA è la matrice associata all’applicazione lineare.

Composizione di Applicazioni Lineari

Se abbiamo due applicazioni lineari f: U → Vf:UVf: U → V e g: V → Wg:VWg: V → W, la composizione delle due applicazioni è anch’essa un’applicazione lineare:

(g ∘ f)(u) = g(f(u))
(gf)(u)=g(f(u))(g ∘ f)(u) = g(f(u))

La matrice associata alla composizione è il prodotto delle matrici associate alle singole applicazioni.

English version

Linear Algebra Summaries

Vectors

Vector Definition

A vector is a mathematical entity that has both a magnitude (length) and a direction. It can be represented in different dimensions, but let’s start with 2D and 3D vectors.

  • 2D Vector: A vector can be represented as \mathbf{v} = (x, y)v=(x,y)\mathbf{v} = (x, y), where xxx and yyy are its components along the x and y axes.
  • 3D Vector: A vector can be represented as \mathbf{v} = (x, y, z)v=(x,y,z)\mathbf{v} = (x, y, z), where zzz is the component along the z-axis.

Vector Operations

Vector Addition

The sum of two vectors \mathbf{u} = (u_1, u_2)u=(u1,u2)\mathbf{u} = (u_1, u_2) and \mathbf{v} = (v_1, v_2)v=(v1,v2)\mathbf{v} = (v_1, v_2) is given by:

\mathbf{u} + \mathbf{v} = (u_1 + v_1, u_2 + v_2)
u+v=(u1+v1,u2+v2)\mathbf{u} + \mathbf{v} = (u_1 + v_1, u_2 + v_2)

In geometric terms, vector addition can be visualized as the “parallelogram method”.

Product by a Scalar

Multiplying a vector \mathbf{v} = (x, y)v=(x,y)\mathbf{v} = (x, y) by a scalar kkk, we get:

k \cdot \mathbf{v} = (k \cdot x, k \cdot y)
kv=(kx,ky)k \cdot \mathbf{v} = (k \cdot x, k \cdot y)

This changes the magnitude of the vector without changing its direction (if k > 0k>0k > 0) or reversing it (if k < 0k<0k < 0).

Dot Product

The dot product of two vectors \mathbf{u} = (u_1, u_2)u=(u1,u2)\mathbf{u} = (u_1, u_2) and \mathbf{v} = (v_1, v_2)v=(v1,v2)\mathbf{v} = (v_1, v_2) is given by:

\mathbf{u} \cdot \mathbf{v} = u_1 v_1 + u_2 v_2
uv=u1v1+u2v2\mathbf{u} \cdot \mathbf{v} = u_1 v_1 + u_2 v_2

The dot product provides information about the relative direction of the two vectors: if it is positive, the vectors point in the same direction; if it is zero, they are perpendicular; if it is negative, they point in opposite directions.

Matrices

Definition of Matrix

A matrix is ​​a rectangular table of numbers organized into rows and columns. A matrix of size m \times nm×nm \times n has mmm rows and nnn columns.

Example

A 2x3 matrix might look like this:

A =
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
A=(a11a12a13a21a22a23)A = \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix}

Matrix Operations

Matrix Addition

Two matrices can be added only if they have the same dimensions. The sum is obtained by adding the corresponding elements:

C = A + B
C=A+BC = A + B

where C_{ij} = A_{ij} + B_{ij}Cij=Aij+BijC_{ij} = A_{ij} + B_{ij}.

Matrix Product

The product of two matrices A(m \times n)A(m×n)A(m \times n) and B(n \times p)B(n×p)B(n \times p) produces a matrix C(m \times p)C(m×p)C(m \times p). Each element of the resulting matrix is ​​computed as follows:

C_{ij} = \sum_{k=1}^{n} A_{ik} B_{kj}
Cij=k=1nAikBkjC_{ij} = \sum_{k=1}^{n} A_{ik} B_{kj}

This means that each element of row i of the first matrix is ​​multiplied by each element of column j of the second matrix and then added together.

Inverse Matrix

The inverse matrix of a square matrix AAA, denoted as A^{-1}A1A^{-1}, is such that:

A A^{-1} = I
AA1=IA A^{-1} = I

where III is the identity matrix. Not all matrices have an inverse; a necessary condition is that the matrix is ​​square and has a nonzero determinant.

Linear Equation Systems

Matrix Representation

A system of linear equations can be written in matrix form:

Ax = b
Ax=bAx = b

where:

  • AAA is the coefficient matrix,
  • xxx is the vector of variables,
  • bbb is the vector of known terms.

System Resolution

Gaussian Elimination

This method consists of transforming the system into an upper triangular form through elementary operations on the rows. Once in this form, the system can be solved by backward substitution.

LU Decomposition

The LU decomposition consists of decomposing the matrix AAA into a product of a lower triangular matrix LLL and an upper triangular matrix UUU:

A = LU
A=LUA = LU

This decomposition facilitates the resolution of linear systems.

Calculating the Rank of a Matrix

The rank of a matrix is ​​defined as the maximum number of linearly independent rows (or columns). It can be calculated using several methods, including escalation and minor analysis.

Escalation Method

  1. Set up the matrix: Start with the matrix you want to analyze.
  2. Reduce the matrix: Use basic row operations to bring the matrix into escalation form (or Gaussian normal form). This means you should get zeros under the pivots (non-zero elements) in each column.
  3. Count pivots: The rank is equal to the number of non-zero rows in the reduced matrix. Each non-zero row represents a linearly independent vector.

Example

Consider the matrix:

A = \begin{pmatrix}
1 & 2 & 3 \\
0 & 1 & 4 \\
0 & 0 & 0
\end{pmatrix}
A=(123014000)A = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 0 & 0 & 0 \end{pmatrix}

After the reduction, we can see that there are two non-zero rows. Therefore, the rank of AAA is 2.

Method of Minors

  1. Find minors: Calculate the determinants of the square submatrices of the matrix.
  2. Find the largest order: The rank is the largest order kkk for which there exists at least one minor of order kkk with a non-zero determinant.

Calculating the Determinant of a Matrix

The determinant is a scalar value associated with a square matrix that provides information about the properties of the matrix, such as invertibility.

Method to Calculate the Determinant

  1. 2x2 Matrix: For a matrix A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}A=(abcd)A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}, the determinant is calculated as:
\text{det}(A) = ad - bc
det(A)=adbc\text{det}(A) = ad - bc
  1. 3x3 Matrix: For a matrix B = \begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \end{pmatrix}B=(abcdefghi)B = \begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \end{pmatrix}, the determinant can be calculated using Sarrus’ rule or cofactor expansion:
\text{det}(B) = a(ei - fh) - b(di - fg) + c(dh - eg)
det(B)=a(eifh)b(difg)+c(dheg)\text{det}(B) = a(ei - fh) - b(di - fg) + c(dh - eg)
  1. Higher Order Matrix: For larger matrices, cofactor expansion is used:
  • Choose a row or column.
  • Calculate the determinant of the submatrices obtained by eliminating the row and column of the chosen element.
  • Multiply each determinant by the corresponding cofactor (which takes into account the position of the element).

Example

Consider the matrix:

C = \begin{pmatrix}
1 & 2 & 3 \\
0 & 1 & 4 \\
5 & 6 & 0
\end{pmatrix}
C=(123014560)C = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 5 & 6 & 0 \end{pmatrix}

Using the cofactor expansion on the first line:

\text{det}(C) = 1\cdot\text{det}\begin{pmatrix} 1 & 4 \\ 6 & 0 \end{pmatrix} - 2\cdot\text{det}\begin{pmatrix} 0 & 4 \\ 5 & 0 \end{pmatrix} + 3\cdot\text{det}\begin{pmatrix} 0 & 1 \\ 5 & 6 \end{pmatrix}
det(C)=1det(1460)2det(0450)+3det(0156)\text{det}(C) = 1\cdot\text{det}\begin{pmatrix} 1 & 4 \\ 6 & 0 \end{pmatrix} - 2\cdot\text{det}\begin{pmatrix} 0 & 4 \\ 5 & 0 \end{pmatrix} + 3\cdot\text{det}\begin{pmatrix} 0 & 1 \\ 5 & 6 \end{pmatrix}

By calculating the determinants of the submatrices and adding the results we obtain the final determinant.

Vector Spaces

Definition of Vector Space

A vector space is a set of vectors that can be scaled and added according to certain rules. Vector spaces are defined over a field, typically the real (\mathbb{R}R\mathbb{R}) or complex (\mathbb{C}C\mathbb{C}) numbers.

Fundamental Properties of Vector Spaces

  1. Closure under Sum: If \mathbf{u}u\mathbf{u} and \mathbf{v}v\mathbf{v} are vectors in the space, then \mathbf{u} + \mathbf{v}u+v\mathbf{u} + \mathbf{v} is also in the space.
  2. Closure under Product by a Scalar: If \mathbf{u}u\mathbf{u} is a vector in the space and ccc is a scalar, then c\mathbf{u}cuc\mathbf{u} is in the space.
  3. Existence of Null Vector: There exists a null vector \mathbf{0}0\mathbf{0} such that \mathbf{u} + \mathbf{0} = \mathbf{u}u+0=u\mathbf{u} + \mathbf{0} = \mathbf{u} for every vector \mathbf{u}u\mathbf{u}.
  4. Existence of Additive Inverses: For every vector \mathbf{u}u\mathbf{u}, there exists a vector -\mathbf{u}u-\mathbf{u} such that \mathbf{u} + (-\mathbf{u}) = \mathbf{0}u+(u)=0\mathbf{u} + (-\mathbf{u}) = \mathbf{0}.
  5. Associativity and Commutativity of Sums: The sum of vectors is associative and commutative.
  6. Distributivity: Multiplication by a scalar distributes with respect to the sum of vectors and scalars.

Dimension and Basis

  • Basis: A set of vectors in a vector space is a basis if the vectors are linearly independent and generate the entire space.
  • Dimension: The dimension of a vector space is the number of vectors in a basis. For example, the space \mathbb{R}^nRn\mathbb{R}^n has dimension nnn.

Linear Transformations

Linear Transformation Definition

A linear transformation is a function T: V \rightarrow WT:VWT: V \rightarrow W between two vector spaces VVV and WWW that satisfies the following properties:

  1. Additivity: T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v})T(u+v)=T(u)+T(v)T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v}) for every \mathbf{u}, \mathbf{v} \in Vu,vV\mathbf{u}, \mathbf{v} \in V.
  2. Homogeneity: T(c\mathbf{u}) = cT(\mathbf{u})T(cu)=cT(u)T(c\mathbf{u}) = cT(\mathbf{u}) for every scalar ccc and every vector \mathbf{u} \in VuV\mathbf{u} \in V.

Matrix Associated with a Linear Transformation

Any linear transformation can be represented by a matrix. If we consider a linear transformation T: V^n \rightarrow W^mT:VnWmT: V^n \rightarrow W^m, the matrix associated with this transformation is a matrix A_{m\times n}Am×nA_{m\times n} such that:

T(\mathbf{x}) = A\mathbf{x}
T(x)=AxT(\mathbf{x}) = A\mathbf{x}

where A\mathbf{x}AxA\mathbf{x} represents the product of the matrix with the column vector \mathbf{x}x\mathbf{x}.

Linear Transformation Example

Let’s consider the linear transformation defined by:

T:
\begin{pmatrix}
x \\
y
\end{pmatrix}
\mapsto
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
T:(xy)(abcd)(xy)T: \begin{pmatrix} x \\ y \end{pmatrix} \mapsto \begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}

This represents a linear transformation in the plane.

Properties of Linear Transformations

  • Identity: The identity transformation is defined as I(\mathbf{x}) = A\mathbf{x} = \mathbf{x}I(x)=Ax=xI(\mathbf{x}) = A\mathbf{x} = \mathbf{x}.
  • Composition of Transformations: If we have two linear transformations T_1: V_1 → W_1T1:V1W1T_1: V_1 → W_1 and T_2: W_1 → W_2T2:W1W2T_2: W_1 → W_2, the composition is defined as:
(T_2 ∘ T_1)(\mathbf{x}) = T_2(T_1(\mathbf{x}))
(T2T1)(x)=T2(T1(x))(T_2 ∘ T_1)(\mathbf{x}) = T_2(T_1(\mathbf{x}))

The matrix associated with the composition is the product of the associated matrices:

A_{T_2 ∘ T_1} = A_{T_2} A_{T_1}
AT2T1=AT2AT1A_{T_2 ∘ T_1} = A_{T_2} A_{T_1}

Invertibility of Linear Transformations

A linear transformation is invertible if there exists an inverse transformation T^{-1}: W → VT1:WVT^{-1}: W → V such that:

T^{-1}(T(\mathbf{x})) = I_V(\mathbf{x})
T1(T(x))=IV(x)T^{-1}(T(\mathbf{x})) = I_V(\mathbf{x})

A necessary condition for a For a linear transformation to be invertible, the associated matrix must be invertible (i.e., its determinant must be nonzero).

Eigenvalues ​​and Eigenvectors

Definition of Eigenvector and Eigenvalue

An eigenvector of a matrix AAA is a non-zero vector \mathbf{v}v\mathbf{v} such that, when the linear transformation represented by AAA is applied, the result is a scalar multiple of \mathbf{v}v\mathbf{v}. Mathematically, this can be expressed as:

A\mathbf{v} = \lambda \mathbf{v}
Av=λvA\mathbf{v} = \lambda \mathbf{v}

where:

  • AAA is a square matrix.
  • \mathbf{v}v\mathbf{v} is the eigenvector.
  • \lambdaλ\lambda is the eigenvalue corresponding to \mathbf{v}v\mathbf{v}.

The set of all eigenvalues ​​of a matrix is ​​called the spectrum of the matrix, denoted by \sigma(A)σ(A)\sigma(A).

Eigenspace

The eigenvectors that share the same eigenvalue \lambdaλ\lambda form a vector subspace called eigenspace relative to \lambdaλ\lambda, denoted as E(\lambda)E(λ)E(\lambda). This eigenspace includes all vectors that can be written as linear combinations of the eigenvectors associated with \lambdaλ\lambda.

Condition for the Existence of Eigenvectors

To find the eigenvectors and eigenvalues, we start from the following equation:

(A - \lambda I)\mathbf{v} = 0
(AλI)v=0(A - \lambda I)\mathbf{v} = 0

where:

  • III is the identity matrix of the same dimension as AAA.
  • The condition for having non-zero eigenvectors is that the determinant of the matrix (A - \lambda I)(AλI)(A - \lambda I) is zero:
\text{det}(A - \lambda I) = 0
det(AλI)=0\text{det}(A - \lambda I) = 0

This equation is known as characteristic equation and allows you to find the eigenvalues.

Calculating Eigenvalues and Eigenvectors

Calculating Steps

  1. Find the Eigenvalues:
  • Calculate the determinant of the matrix (A - \lambda I)(AλI)(A - \lambda I).
  • Solve the characteristic equation to find the values of \lambdaλ\lambda.
  1. Find the Eigenvectors:
  • For each eigenvalue found, substitute $$ \lambda $$ into the equation (A - \lambda I)\mathbf{v} = 0(AλI)v=0(A - \lambda I)\mathbf{v} = 0.
  • Solve the resulting system of equations to find the non-zero vectors \mathbf{v}v\mathbf{v}.

Linear Applications

Linear applications are functions that connect two vector spaces and respect the operations of addition and multiplication by a scalar. These applications are fundamental in linear algebra and have many applications in mathematics and science.

Definition of Linear Application

Let VVV and WWW be two vector spaces over a field KKK. An application f: V \rightarrow Wf:VWf: V \rightarrow W is said to be linear if it satisfies the following properties:

  1. Additivity:
f(\mathbf{u} + \mathbf{v}) = f(\mathbf{u}) + f(\mathbf{v}) \quad \forall \mathbf{u}, \mathbf{v} \in V
f(u+v)=f(u)+f(v)u,vVf(\mathbf{u} + \mathbf{v}) = f(\mathbf{u}) + f(\mathbf{v}) \quad \forall \mathbf{u}, \mathbf{v} \in V
  1. Homogeneity:
f(a \cdot \mathbf{u}) = a \cdot f(\mathbf{u}) \quad \forall a \in K, \, \forall \mathbf{u} \in V
f(au)=af(u)aK,uVf(a \cdot \mathbf{u}) = a \cdot f(\mathbf{u}) \quad \forall a \in K, \, \forall \mathbf{u} \in V

These two properties can be summarized in a single condition:

f(a\mathbf{u} + b\mathbf{v}) = af(\mathbf{u}) + bf(\mathbf{v}) \quad \forall a, b \in K, \, \forall \mathbf{u}, \mathbf{v} \in V
f(au+bv)=af(u)+bf(v)a,bK,u,vVf(a\mathbf{u} + b\mathbf{v}) = af(\mathbf{u}) + bf(\mathbf{v}) \quad \forall a, b \in K, \, \forall \mathbf{u}, \mathbf{v} \in V

Examples of Linear Applications

Example 1: Simple Linear Application

Let’s consider the application f: \mathbb{R}^2 \rightarrow \mathbb{R}^2f:R2R2f: \mathbb{R}^2 \rightarrow \mathbb{R}^2 defined by:

f\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 2x \\ 3y \end{pmatrix}
f(xy)=(2x3y)f\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 2x \\ 3y \end{pmatrix}

Let’s verify linearity:

  • Additivity:
    If we take two vectors v_1 = (x_1, y_1)v1=(x1,y1)v_1 = (x_1, y_1) and v_2 = (x_2, y_2)v2=(x2,y2)v_2 = (x_2, y_2):
f(v_1 + v_2) = f\begin{pmatrix} x_1 + x_2 \\ y_1 + y_2 \end{pmatrix} =
 \begin{pmatrix} 2(x_1 + x_2) \\ 3(y_1 + y_2) \end{pmatrix} =
 \begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} +
 \begin{pmatrix} 2x_2 \\ 3y_2 \end{pmatrix} = f(v_1) + f(v_2)
f(v1+v2)=f(x1+x2y1+y2)=(2(x1+x2)3(y1+y2))=(2x13y1)+(2x23y2)=f(v1)+f(v2)f(v_1 + v_2) = f\begin{pmatrix} x_1 + x_2 \\ y_1 + y_2 \end{pmatrix} = \begin{pmatrix} 2(x_1 + x_2) \\ 3(y_1 + y_2) \end{pmatrix} = \begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} + \begin{pmatrix} 2x_2 \\ 3y_2 \end{pmatrix} = f(v_1) + f(v_2)
  • Homogeneity:
    For a scalar aaa:
f(a v_1) = f\begin{pmatrix} ax_1 \\ ay_1 \end{pmatrix} =
\begin{pmatrix} 2(ax_1) \\ 3(ay_1) \end{pmatrix} =
a\begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} = a f(v_1)
f(av1)=f(ax1ay1)=(2(ax1)3(ay1))=a(2x13y1)=af(v1)f(a v_1) = f\begin{pmatrix} ax_1 \\ ay_1 \end{pmatrix} = \begin{pmatrix} 2(ax_1) \\ 3(ay_1) \end{pmatrix} = a\begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} = a f(v_1)

Example 2: Non-Linear Application

Let’s consider the application g: R^3 → R^2g:R3R2g: R^3 → R^2 defined by:

g\begin{pmatrix} x \\ y \\ z \end{pmatrix} =
\begin{pmatrix} xy \\ x - z^2 \end{pmatrix}
g(xyz)=(xyxz2)g\begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} xy \\ x - z^2 \end{pmatrix}

Let’s check the linearity:

  • Additivity:
    Let’s calculate g(v_1 + v_2) = g(v_1) + g(v_2)g(v1+v2)=g(v1)+g(v2)g(v_1 + v_2) = g(v_1) + g(v_2). Since the first component is a product (non-linear), it does not satisfy the linearity.
  • Conclusion: This application is non-linear.

Kernel and Image

Kernel

The kernel of a linear application f: V → Wf:VWf: V → W is the set of all vectors in VVV that map to the null vector in WWW:

\text{Kernel}(f) = { v ∈ V | f(v) = 0 }
Kernel(f)=vVf(v)=0\text{Kernel}(f) = { v ∈ V | f(v) = 0 }

Image

The image of a linear application is the set of all vectors in WWW that are images of vectors in VVV:

\text{Image}(f) = { w ∈ W | w = f(v), v ∈ V }
Image(f)=wWw=f(v),vV\text{Image}(f) = { w ∈ W | w = f(v), v ∈ V }

Matrix Associated with a Linear Application

Every linear application can be represented by a matrix. If we consider a linear application f: R^n → R^mf:RnRmf: R^n → R^m, we can associate a matrix A_{m\times n}Am×nA_{m\times n}. The application can be expressed as:

f(\mathbf{x}) = A\mathbf{x}
f(x)=Axf(\mathbf{x}) = A\mathbf{x}

where AAA is the matrix associated with the linear application.

Composition of Linear Applications

If we have two linear applications f: U → Vf:UVf: U → V and g: V → Wg:VWg: V → W, the composition of the two applications is also a linear application:

(g ∘ f)(u) = g(f(u))
(gf)(u)=g(f(u))(g ∘ f)(u) = g(f(u))

The matrix associated with the composition is the product of the matrices associated with the individual applications

Commenti