Versione italiana
Riassunti algebra lineare
Vettori
Definizione di Vettore
Un vettore è un’entità matematica che ha sia una magnitudine (lunghezza) che una direzione. Può essere rappresentato in diverse dimensioni, ma iniziamo con i vettori bidimensionali e tridimensionali.
- Vettore in 2D: Un vettore può essere rappresentato come \mathbf{v} = (x, y), dove x e y sono le sue componenti lungo gli assi x e y.
- Vettore in 3D: Un vettore può essere rappresentato come \mathbf{v} = (x, y, z), dove z è la componente lungo l’asse z.
Operazioni sui Vettori
Somma di Vettori
La somma di due vettori \mathbf{u} = (u_1, u_2) e \mathbf{v} = (v_1, v_2) è data da:
\mathbf{u} + \mathbf{v} = (u_1 + v_1, u_2 + v_2)
In termini geometrici, la somma di vettori può essere visualizzata come il “metodo del parallelogramma”.
Prodotto per uno Scalare
Moltiplicando un vettore \mathbf{v} = (x, y) per uno scalare k, otteniamo:
k \cdot \mathbf{v} = (k \cdot x, k \cdot y)
Questo modifica la magnitudine del vettore senza cambiarne la direzione (se k > 0) o invertendola (se k < 0).
Prodotto Scalare
Il prodotto scalare di due vettori \mathbf{u} = (u_1, u_2) e \mathbf{v} = (v_1, v_2) è dato da:
\mathbf{u} \cdot \mathbf{v} = u_1 v_1 + u_2 v_2
Il prodotto scalare fornisce informazioni sulla direzione relativa dei due vettori: se è positivo, i vettori puntano nella stessa direzione; se è zero, sono perpendicolari; se è negativo, puntano in direzioni opposte.
Matrici
Definizione di Matrice
Una matrice è una tabella rettangolare di numeri organizzata in righe e colonne. Una matrice di dimensione m \times n ha m righe e n colonne.
Esempio
Una matrice 2x3 potrebbe apparire così:
A = \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix}
Operazioni sulle Matrici
Somma di Matrici
Due matrici possono essere sommate solo se hanno le stesse dimensioni. La somma è ottenuta sommando gli elementi corrispondenti:
C = A + B
dove C_{ij} = A_{ij} + B_{ij}.
Prodotto di Matrici
Il prodotto di due matrici A(m \times n) e B(n \times p) produce una matrice C(m \times p). Ogni elemento della matrice risultante è calcolato come segue:
C_{ij} = \sum_{k=1}^{n} A_{ik} B_{kj}
Questo significa che ogni elemento della riga i della prima matrice viene moltiplicato per ogni elemento della colonna j della seconda matrice e poi sommati.
Matrice Inversa
La matrice inversa di una matrice quadrata A, denotata come A^{-1}, è tale che:
A A^{-1} = I
dove I è la matrice identità. Non tutte le matrici hanno un’inversa; una condizione necessaria è che la matrice sia quadrata e abbia determinante diverso da zero.
Sistemi di Equazioni Lineari
Rappresentazione Matriciale
Un sistema di equazioni lineari può essere scritto nella forma matriciale:
Ax = b
dove:
- A è la matrice dei coefficienti,
- x è il vettore delle variabili,
- b è il vettore dei termini noti.
Risoluzione dei Sistemi
Eliminazione di Gauss
Questo metodo consiste nel trasformare il sistema in una forma triangolare superiore attraverso operazioni elementari sulle righe. Una volta in questa forma, si può risolvere il sistema tramite sostituzione all’indietro.
Scomposizione LU
La scomposizione LU consiste nel decomporre la matrice A in un prodotto di una matrice triangolare inferiore L e una triangolare superiore U:
A = LU
Questa scomposizione facilita la risoluzione dei sistemi lineari.
Calcolo del Rango di una Matrice
Il rango di una matrice è definito come il numero massimo di righe (o colonne) linearmente indipendenti. Può essere calcolato utilizzando diversi metodi, tra cui la riduzione a scala e l’analisi dei minori.
Metodo della Riduzione a Scala
- Imposta la matrice: Inizia con la matrice che desideri analizzare.
- Riduci la matrice: Usa operazioni elementari sulle righe per portare la matrice in forma di scala (o forma normale di Gauss). Questo significa che dovresti ottenere zeri sotto i pivot (elementi non nulli) in ogni colonna.
- Conta i pivot: Il rango è uguale al numero di righe non nulle nella matrice ridotta. Ogni riga non nulla rappresenta un vettore linearmente indipendente.
Esempio
Consideriamo la matrice:
A = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 0 & 0 & 0 \end{pmatrix}
Dopo la riduzione, possiamo vedere che ci sono due righe non nulle. Quindi, il rango di A è 2.
Metodo dei Minori
- Trova i minori: Calcola i determinanti delle sottomatrici quadrate della matrice.
- Identifica il massimo ordine: Il rango è il più grande ordine k per cui esiste almeno un minore di ordine k con determinante diverso da zero.
Calcolo del Determinante di una Matrice
Il determinante è un valore scalare associato a una matrice quadrata che fornisce informazioni sulle proprietà della matrice, come l’invertibilità.
Metodo per Calcolare il Determinante
-
Matrice 2x2: Per una matrice A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}, il determinante è calcolato come:
\text{det}(A) = ad - bc
-
Matrice 3x3: Per una matrice B = \begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \end{pmatrix}, il determinante può essere calcolato usando la regola di Sarrus o l’espansione per cofattori:
\text{det}(B) = a(ei - fh) - b(di - fg) + c(dh - eg)
-
Matrice di ordine superiore: Per matrici più grandi, si utilizza l’espansione per cofattori:
- Scegli una riga o colonna.
- Calcola il determinante delle sottomatrici ottenute eliminando la riga e colonna dell’elemento scelto.
- Moltiplica ciascun determinante per il cofattore corrispondente (che tiene conto della posizione dell’elemento).
Esempio
Consideriamo la matrice:
C = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 5 & 6 & 0 \end{pmatrix}
Utilizzando l’espansione per cofattori sulla prima riga:
\text{det}(C) = 1\cdot\text{det}\begin{pmatrix} 1 & 4 \\ 6 & 0 \end{pmatrix} - 2\cdot\text{det}\begin{pmatrix} 0 & 4 \\ 5 & 0 \end{pmatrix} + 3\cdot\text{det}\begin{pmatrix} 0 & 1 \\ 5 & 6 \end{pmatrix}
Calcolando i determinanti delle sottomatrici e sommando i risultati otteniamo il determinante finale.
Spazi Vettoriali
Definizione di Spazio Vettoriale
Uno spazio vettoriale è un insieme di vettori che può essere scalato e sommato seguendo determinate regole. Gli spazi vettoriali sono definiti su un campo, tipicamente i numeri reali (\mathbb{R}) o complessi (\mathbb{C}).
Proprietà Fondamentali degli Spazi Vettoriali
- Chiusura sotto la Somma: Se \mathbf{u} e \mathbf{v} sono vettori nello spazio, allora anche \mathbf{u} + \mathbf{v} è nello spazio.
- Chiusura sotto il Prodotto per uno Scalare: Se \mathbf{u} è un vettore nello spazio e c è uno scalare, allora c\mathbf{u} è nello spazio.
- Esistenza del Vettore Nullo: Esiste un vettore nullo \mathbf{0} tale che \mathbf{u} + \mathbf{0} = \mathbf{u} per ogni vettore \mathbf{u}.
- Esistenza degli Inversi Additivi: Per ogni vettore \mathbf{u}, esiste un vettore -\mathbf{u} tale che \mathbf{u} + (-\mathbf{u}) = \mathbf{0}.
- Associatività e Commutatività della Somma: La somma di vettori è associativa e commutativa.
- Distributività: La moltiplicazione per uno scalare distribuisce rispetto alla somma di vettori e scalari.
Dimensione e Base
- Base: Un insieme di vettori in uno spazio vettoriale è una base se i vettori sono linearmente indipendenti e generano l’intero spazio.
- Dimensione: La dimensione di uno spazio vettoriale è il numero di vettori in una base. Ad esempio, lo spazio \mathbb{R}^n ha dimensione n.
Trasformazioni Lineari
Definizione di Trasformazione Lineare
Una trasformazione lineare è una funzione T: V \rightarrow W tra due spazi vettoriali V e W che soddisfa le seguenti proprietà:
- Additività: T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v}) per ogni \mathbf{u}, \mathbf{v} \in V.
- Omogeneità: T(c\mathbf{u}) = cT(\mathbf{u}) per ogni scalare c e ogni vettore \mathbf{u} \in V.
Matrice Associata a una Trasformazione Lineare
Ogni trasformazione lineare può essere rappresentata da una matrice. Se consideriamo una trasformazione lineare T: V^n \rightarrow W^m, la matrice associata a questa trasformazione è una matrice A_{m\times n} tale che:
T(\mathbf{x}) = A\mathbf{x}
dove A\mathbf{x} rappresenta il prodotto della matrice con il vettore colonna \mathbf{x}.
Esempio di Trasformazione Lineare
Consideriamo la trasformazione lineare definita da:
T: \begin{pmatrix} x \\ y \end{pmatrix} \mapsto \begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}
Questa rappresenta una trasformazione lineare nel piano.
Proprietà delle Trasformazioni Lineari
- Identità: La trasformazione identità è definita come I(\mathbf{x}) = A\mathbf{x} = \mathbf{x}.
- Composizione di Trasformazioni: Se abbiamo due trasformazioni lineari T_1: V_1 → W_1 e T_2: W_1 → W_2, la composizione è definita come:
(T_2 ∘ T_1)(\mathbf{x}) = T_2(T_1(\mathbf{x}))
La matrice associata alla composizione è il prodotto delle matrici associate:
A_{T_2 ∘ T_1} = A_{T_2} A_{T_1}
Invertibilità delle Trasformazioni Lineari
Una trasformazione lineare è invertibile se esiste una trasformazione inversa T^{-1}: W → V tale che:
T^{-1}(T(\mathbf{x})) = I_V(\mathbf{x})
Una condizione necessaria affinché una trasformazione lineare sia invertibile è che la matrice associata sia invertibile (cioè, il suo determinante deve essere diverso da zero).
Autovalori e autovettori
Definizione di Autovettore e Autovalore
Un autovettore di una matrice A è un vettore non nullo \mathbf{v} tale che, quando viene applicata la trasformazione lineare rappresentata da A, il risultato è un multiplo scalare di \mathbf{v}. Matematicamente, questo può essere espresso come:
A\mathbf{v} = \lambda \mathbf{v}
dove:
- A è una matrice quadrata.
- \mathbf{v} è l’autovettore.
- \lambda è lo autovalore corrispondente a \mathbf{v}.
L’insieme di tutti gli autovalori di una matrice è chiamato spettro della matrice, denotato con \sigma(A).
Autospazio
Gli autovettori che condividono lo stesso autovalore \lambda formano un sottospazio vettoriale chiamato autospazio relativo a \lambda, denotato come E(\lambda). Questo autospazio include tutti i vettori che possono essere scritti come combinazioni lineari degli autovettori associati a \lambda.
Condizione per l’Esistenza degli Autovettori
Per trovare gli autovettori e gli autovalori, si parte dalla seguente equazione:
(A - \lambda I)\mathbf{v} = 0
dove:
- I è la matrice identità della stessa dimensione di A.
- La condizione per avere autovettori non nulli è che il determinante della matrice (A - \lambda I) sia zero:
\text{det}(A - \lambda I) = 0
Questa equazione è nota come equazione caratteristica e permette di trovare gli autovalori.
Calcolo degli Autovalori e Autovettori
Passaggi per il Calcolo
-
Trova gli Autovalori:
- Calcola il determinante della matrice (A - \lambda I).
- Risolvi l’equazione caratteristica per trovare i valori di \lambda.
-
Trova gli Autovettori:
- Per ogni autovalore trovato, sostituisci $$ \lambda $$ nell’equazione (A - \lambda I)\mathbf{v} = 0.
- Risolvi il sistema di equazioni risultante per trovare i vettori non nulli \mathbf{v}.
Applicazioni lineari
Le applicazioni lineari sono funzioni che collegano due spazi vettoriali e rispettano le operazioni di somma e moltiplicazione per uno scalare. Queste applicazioni sono fondamentali in algebra lineare e hanno molteplici applicazioni in matematica e nelle scienze.
Definizione di Applicazione Lineare
Siano V e W due spazi vettoriali su un campo K. Un’applicazione f: V \rightarrow W è detta lineare se soddisfa le seguenti proprietà:
- Additività:
f(\mathbf{u} + \mathbf{v}) = f(\mathbf{u}) + f(\mathbf{v}) \quad \forall \mathbf{u}, \mathbf{v} \in V
- Omogeneità:
f(a \cdot \mathbf{u}) = a \cdot f(\mathbf{u}) \quad \forall a \in K, \, \forall \mathbf{u} \in V
Queste due proprietà possono essere riassunte in una singola condizione:
f(a\mathbf{u} + b\mathbf{v}) = af(\mathbf{u}) + bf(\mathbf{v}) \quad \forall a, b \in K, \, \forall \mathbf{u}, \mathbf{v} \in V
Esempi di Applicazioni Lineari
Esempio 1: Applicazione Lineare Semplice
Consideriamo l’applicazione f: \mathbb{R}^2 \rightarrow \mathbb{R}^2 definita da:
f\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 2x \\ 3y \end{pmatrix}
Verifichiamo la linearità:
- Additività:
Se prendiamo due vettori v_1 = (x_1, y_1) e v_2 = (x_2, y_2):f(v_1 + v_2) = f\begin{pmatrix} x_1 + x_2 \\ y_1 + y_2 \end{pmatrix} = \begin{pmatrix} 2(x_1 + x_2) \\ 3(y_1 + y_2) \end{pmatrix} = \begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} + \begin{pmatrix} 2x_2 \\ 3y_2 \end{pmatrix} = f(v_1) + f(v_2)
- Omogeneità:
Per un scalare a:f(a v_1) = f\begin{pmatrix} ax_1 \\ ay_1 \end{pmatrix} = \begin{pmatrix} 2(ax_1) \\ 3(ay_1) \end{pmatrix} = a\begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} = a f(v_1)
Esempio 2: Applicazione Non Lineare
Consideriamo l’applicazione g: R^3 → R^2 definita da:
g\begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} xy \\ x - z^2 \end{pmatrix}
Verifichiamo la linearità:
- Additività:
Calcoliamo g(v_1 + v_2) = g(v_1) + g(v_2). Poiché il primo componente è un prodotto (non lineare), non soddisfa la linearità. - Conclusione: Questa applicazione non è lineare.
Nucleo e Immagine
Nucleo
Il nucleo di un’applicazione lineare f: V → W è l’insieme di tutti i vettori in V che vengono mappati nel vettore nullo in W:
\text{Nucleo}(f) = { v ∈ V | f(v) = 0 }
Immagine
L’immagine di un’applicazione lineare è l’insieme di tutti i vettori in W che sono immagini di vettori in V:
\text{Immagine}(f) = { w ∈ W | w = f(v), v ∈ V }
Matrice Associata a un’Applicazione Lineare
Ogni applicazione lineare può essere rappresentata da una matrice. Se consideriamo un’applicazione lineare f: R^n → R^m, possiamo associare una matrice A_{m\times n}. L’applicazione può essere espressa come:
f(\mathbf{x}) = A\mathbf{x}
dove A è la matrice associata all’applicazione lineare.
Composizione di Applicazioni Lineari
Se abbiamo due applicazioni lineari f: U → V e g: V → W, la composizione delle due applicazioni è anch’essa un’applicazione lineare:
(g ∘ f)(u) = g(f(u))
La matrice associata alla composizione è il prodotto delle matrici associate alle singole applicazioni.
English version
Linear Algebra Summaries
Vectors
Vector Definition
A vector is a mathematical entity that has both a magnitude (length) and a direction. It can be represented in different dimensions, but let’s start with 2D and 3D vectors.
- 2D Vector: A vector can be represented as \mathbf{v} = (x, y), where x and y are its components along the x and y axes.
- 3D Vector: A vector can be represented as \mathbf{v} = (x, y, z), where z is the component along the z-axis.
Vector Operations
Vector Addition
The sum of two vectors \mathbf{u} = (u_1, u_2) and \mathbf{v} = (v_1, v_2) is given by:
\mathbf{u} + \mathbf{v} = (u_1 + v_1, u_2 + v_2)
In geometric terms, vector addition can be visualized as the “parallelogram method”.
Product by a Scalar
Multiplying a vector \mathbf{v} = (x, y) by a scalar k, we get:
k \cdot \mathbf{v} = (k \cdot x, k \cdot y)
This changes the magnitude of the vector without changing its direction (if k > 0) or reversing it (if k < 0).
Dot Product
The dot product of two vectors \mathbf{u} = (u_1, u_2) and \mathbf{v} = (v_1, v_2) is given by:
\mathbf{u} \cdot \mathbf{v} = u_1 v_1 + u_2 v_2
The dot product provides information about the relative direction of the two vectors: if it is positive, the vectors point in the same direction; if it is zero, they are perpendicular; if it is negative, they point in opposite directions.
Matrices
Definition of Matrix
A matrix is ​​a rectangular table of numbers organized into rows and columns. A matrix of size m \times n has m rows and n columns.
Example
A 2x3 matrix might look like this:
A = \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix}
Matrix Operations
Matrix Addition
Two matrices can be added only if they have the same dimensions. The sum is obtained by adding the corresponding elements:
C = A + B
where C_{ij} = A_{ij} + B_{ij}.
Matrix Product
The product of two matrices A(m \times n) and B(n \times p) produces a matrix C(m \times p). Each element of the resulting matrix is ​​computed as follows:
C_{ij} = \sum_{k=1}^{n} A_{ik} B_{kj}
This means that each element of row i of the first matrix is ​​multiplied by each element of column j of the second matrix and then added together.
Inverse Matrix
The inverse matrix of a square matrix A, denoted as A^{-1}, is such that:
A A^{-1} = I
where I is the identity matrix. Not all matrices have an inverse; a necessary condition is that the matrix is ​​square and has a nonzero determinant.
Linear Equation Systems
Matrix Representation
A system of linear equations can be written in matrix form:
Ax = b
where:
- A is the coefficient matrix,
- x is the vector of variables,
- b is the vector of known terms.
System Resolution
Gaussian Elimination
This method consists of transforming the system into an upper triangular form through elementary operations on the rows. Once in this form, the system can be solved by backward substitution.
LU Decomposition
The LU decomposition consists of decomposing the matrix A into a product of a lower triangular matrix L and an upper triangular matrix U:
A = LU
This decomposition facilitates the resolution of linear systems.
Calculating the Rank of a Matrix
The rank of a matrix is ​​defined as the maximum number of linearly independent rows (or columns). It can be calculated using several methods, including escalation and minor analysis.
Escalation Method
- Set up the matrix: Start with the matrix you want to analyze.
- Reduce the matrix: Use basic row operations to bring the matrix into escalation form (or Gaussian normal form). This means you should get zeros under the pivots (non-zero elements) in each column.
- Count pivots: The rank is equal to the number of non-zero rows in the reduced matrix. Each non-zero row represents a linearly independent vector.
Example
Consider the matrix:
A = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 0 & 0 & 0 \end{pmatrix}
After the reduction, we can see that there are two non-zero rows. Therefore, the rank of A is 2.
Method of Minors
- Find minors: Calculate the determinants of the square submatrices of the matrix.
- Find the largest order: The rank is the largest order k for which there exists at least one minor of order k with a non-zero determinant.
Calculating the Determinant of a Matrix
The determinant is a scalar value associated with a square matrix that provides information about the properties of the matrix, such as invertibility.
Method to Calculate the Determinant
- 2x2 Matrix: For a matrix A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}, the determinant is calculated as:
\text{det}(A) = ad - bc
- 3x3 Matrix: For a matrix B = \begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \end{pmatrix}, the determinant can be calculated using Sarrus’ rule or cofactor expansion:
\text{det}(B) = a(ei - fh) - b(di - fg) + c(dh - eg)
- Higher Order Matrix: For larger matrices, cofactor expansion is used:
- Choose a row or column.
- Calculate the determinant of the submatrices obtained by eliminating the row and column of the chosen element.
- Multiply each determinant by the corresponding cofactor (which takes into account the position of the element).
Example
Consider the matrix:
C = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 5 & 6 & 0 \end{pmatrix}
Using the cofactor expansion on the first line:
\text{det}(C) = 1\cdot\text{det}\begin{pmatrix} 1 & 4 \\ 6 & 0 \end{pmatrix} - 2\cdot\text{det}\begin{pmatrix} 0 & 4 \\ 5 & 0 \end{pmatrix} + 3\cdot\text{det}\begin{pmatrix} 0 & 1 \\ 5 & 6 \end{pmatrix}
By calculating the determinants of the submatrices and adding the results we obtain the final determinant.
Vector Spaces
Definition of Vector Space
A vector space is a set of vectors that can be scaled and added according to certain rules. Vector spaces are defined over a field, typically the real (\mathbb{R}) or complex (\mathbb{C}) numbers.
Fundamental Properties of Vector Spaces
- Closure under Sum: If \mathbf{u} and \mathbf{v} are vectors in the space, then \mathbf{u} + \mathbf{v} is also in the space.
- Closure under Product by a Scalar: If \mathbf{u} is a vector in the space and c is a scalar, then c\mathbf{u} is in the space.
- Existence of Null Vector: There exists a null vector \mathbf{0} such that \mathbf{u} + \mathbf{0} = \mathbf{u} for every vector \mathbf{u}.
- Existence of Additive Inverses: For every vector \mathbf{u}, there exists a vector -\mathbf{u} such that \mathbf{u} + (-\mathbf{u}) = \mathbf{0}.
- Associativity and Commutativity of Sums: The sum of vectors is associative and commutative.
- Distributivity: Multiplication by a scalar distributes with respect to the sum of vectors and scalars.
Dimension and Basis
- Basis: A set of vectors in a vector space is a basis if the vectors are linearly independent and generate the entire space.
- Dimension: The dimension of a vector space is the number of vectors in a basis. For example, the space \mathbb{R}^n has dimension n.
Linear Transformations
Linear Transformation Definition
A linear transformation is a function T: V \rightarrow W between two vector spaces V and W that satisfies the following properties:
- Additivity: T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v}) for every \mathbf{u}, \mathbf{v} \in V.
- Homogeneity: T(c\mathbf{u}) = cT(\mathbf{u}) for every scalar c and every vector \mathbf{u} \in V.
Matrix Associated with a Linear Transformation
Any linear transformation can be represented by a matrix. If we consider a linear transformation T: V^n \rightarrow W^m, the matrix associated with this transformation is a matrix A_{m\times n} such that:
T(\mathbf{x}) = A\mathbf{x}
where A\mathbf{x} represents the product of the matrix with the column vector \mathbf{x}.
Linear Transformation Example
Let’s consider the linear transformation defined by:
T: \begin{pmatrix} x \\ y \end{pmatrix} \mapsto \begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}
This represents a linear transformation in the plane.
Properties of Linear Transformations
- Identity: The identity transformation is defined as I(\mathbf{x}) = A\mathbf{x} = \mathbf{x}.
- Composition of Transformations: If we have two linear transformations T_1: V_1 → W_1 and T_2: W_1 → W_2, the composition is defined as:
(T_2 ∘ T_1)(\mathbf{x}) = T_2(T_1(\mathbf{x}))
The matrix associated with the composition is the product of the associated matrices:
A_{T_2 ∘ T_1} = A_{T_2} A_{T_1}
Invertibility of Linear Transformations
A linear transformation is invertible if there exists an inverse transformation T^{-1}: W → V such that:
T^{-1}(T(\mathbf{x})) = I_V(\mathbf{x})
A necessary condition for a For a linear transformation to be invertible, the associated matrix must be invertible (i.e., its determinant must be nonzero).
Eigenvalues ​​and Eigenvectors
Definition of Eigenvector and Eigenvalue
An eigenvector of a matrix A is a non-zero vector \mathbf{v} such that, when the linear transformation represented by A is applied, the result is a scalar multiple of \mathbf{v}. Mathematically, this can be expressed as:
A\mathbf{v} = \lambda \mathbf{v}
where:
- A is a square matrix.
- \mathbf{v} is the eigenvector.
- \lambda is the eigenvalue corresponding to \mathbf{v}.
The set of all eigenvalues ​​of a matrix is ​​called the spectrum of the matrix, denoted by \sigma(A).
Eigenspace
The eigenvectors that share the same eigenvalue \lambda form a vector subspace called eigenspace relative to \lambda, denoted as E(\lambda). This eigenspace includes all vectors that can be written as linear combinations of the eigenvectors associated with \lambda.
Condition for the Existence of Eigenvectors
To find the eigenvectors and eigenvalues, we start from the following equation:
(A - \lambda I)\mathbf{v} = 0
where:
- I is the identity matrix of the same dimension as A.
- The condition for having non-zero eigenvectors is that the determinant of the matrix (A - \lambda I) is zero:
\text{det}(A - \lambda I) = 0
This equation is known as characteristic equation and allows you to find the eigenvalues.
Calculating Eigenvalues and Eigenvectors
Calculating Steps
- Find the Eigenvalues:
- Calculate the determinant of the matrix (A - \lambda I).
- Solve the characteristic equation to find the values of \lambda.
- Find the Eigenvectors:
- For each eigenvalue found, substitute $$ \lambda $$ into the equation (A - \lambda I)\mathbf{v} = 0.
- Solve the resulting system of equations to find the non-zero vectors \mathbf{v}.
Linear Applications
Linear applications are functions that connect two vector spaces and respect the operations of addition and multiplication by a scalar. These applications are fundamental in linear algebra and have many applications in mathematics and science.
Definition of Linear Application
Let V and W be two vector spaces over a field K. An application f: V \rightarrow W is said to be linear if it satisfies the following properties:
- Additivity:
f(\mathbf{u} + \mathbf{v}) = f(\mathbf{u}) + f(\mathbf{v}) \quad \forall \mathbf{u}, \mathbf{v} \in V
- Homogeneity:
f(a \cdot \mathbf{u}) = a \cdot f(\mathbf{u}) \quad \forall a \in K, \, \forall \mathbf{u} \in V
These two properties can be summarized in a single condition:
f(a\mathbf{u} + b\mathbf{v}) = af(\mathbf{u}) + bf(\mathbf{v}) \quad \forall a, b \in K, \, \forall \mathbf{u}, \mathbf{v} \in V
Examples of Linear Applications
Example 1: Simple Linear Application
Let’s consider the application f: \mathbb{R}^2 \rightarrow \mathbb{R}^2 defined by:
f\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 2x \\ 3y \end{pmatrix}
Let’s verify linearity:
- Additivity:
If we take two vectors v_1 = (x_1, y_1) and v_2 = (x_2, y_2):
f(v_1 + v_2) = f\begin{pmatrix} x_1 + x_2 \\ y_1 + y_2 \end{pmatrix} = \begin{pmatrix} 2(x_1 + x_2) \\ 3(y_1 + y_2) \end{pmatrix} = \begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} + \begin{pmatrix} 2x_2 \\ 3y_2 \end{pmatrix} = f(v_1) + f(v_2)
- Homogeneity:
For a scalar a:
f(a v_1) = f\begin{pmatrix} ax_1 \\ ay_1 \end{pmatrix} = \begin{pmatrix} 2(ax_1) \\ 3(ay_1) \end{pmatrix} = a\begin{pmatrix} 2x_1 \\ 3y_1 \end{pmatrix} = a f(v_1)
Example 2: Non-Linear Application
Let’s consider the application g: R^3 → R^2 defined by:
g\begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} xy \\ x - z^2 \end{pmatrix}
Let’s check the linearity:
- Additivity:
Let’s calculate g(v_1 + v_2) = g(v_1) + g(v_2). Since the first component is a product (non-linear), it does not satisfy the linearity. - Conclusion: This application is non-linear.
Kernel and Image
Kernel
The kernel of a linear application f: V → W is the set of all vectors in V that map to the null vector in W:
\text{Kernel}(f) = { v ∈ V | f(v) = 0 }
Image
The image of a linear application is the set of all vectors in W that are images of vectors in V:
\text{Image}(f) = { w ∈ W | w = f(v), v ∈ V }
Matrix Associated with a Linear Application
Every linear application can be represented by a matrix. If we consider a linear application f: R^n → R^m, we can associate a matrix A_{m\times n}. The application can be expressed as:
f(\mathbf{x}) = A\mathbf{x}
where A is the matrix associated with the linear application.
Composition of Linear Applications
If we have two linear applications f: U → V and g: V → W, the composition of the two applications is also a linear application:
(g ∘ f)(u) = g(f(u))
The matrix associated with the composition is the product of the matrices associated with the individual applications
Commenti
Posta un commento