This commit is contained in:
Dario48 2026-02-04 17:32:10 +01:00
commit c9f66760d4

View file

@ -4,11 +4,15 @@
\documentclass{article}
\usepackage{amsmath}
\usepackage{amssymb}
\usepackage{leftindex}
\usepackage{enumitem}
\usepackage{minted}
\usepackage{memoize}
\usepackage{tikz}
\usepackage{pgfplots}
\usepgfplotslibrary{fillbetween}
\pgfplotsset{compat=1.18}
@ -1141,11 +1145,15 @@ $p_A(t)=det(A-tI) \in \mathbb K[t]$
gli zeri di $p_A(t)$ in $\mathbb K$ sono gli autovalori di A, e viceversa
la moleplicità algebrica di un autovalore è la molteplicità dello zero come soluzione del polinomio $p_A(t)$ si indica con $M_A(\lambda)$
la moleplicità algebrica di un autovalore è la molteplicità dello zero come soluzione del polinomio $M_A(\lambda)=\max m (x-a)^m|P(x)$
dato $\lambda$ un autovalore di A definiamo l'autospazio relativo all'autovalore $\lambda$: \\ $V_\lambda=\left\{ v=\begin{pmatrix}v_1\\v_2\\\vdots\\v_n\end{pmatrix}\in\mathbb K^N|Av=\lambda v \right\}$ = $\left\{ v\in\mathbb K^N|Av-\lambda v=0 \right\}$ = $\left\{ v\in\mathbb K^N|(A-\lambda I) v=0 \right\}$
la molteplicità geometrica dell'autovalore $\lambda$ è la dimensione di $V_\lambda$. si indica con $M_G(\lambda)=dim(V_\lambda)$, $dim(V_\lambda)\geq 1) \forall\lambda$ autovalore
la molteplicità geometrica dell'autovalore $\lambda$ è la dimensione di $V_\lambda$. si indica con $M_G(\lambda)=\dim(V_\lambda)$, $\dim(V_\lambda)\geq 1\ \forall\lambda$ autovalore
$1\leq m_g(a)\leq m_a(a)$
$n$ = ordine matrice, $\sum\limits_{a\text{ autovalori}}m_a(a)\neq n \implies$ matrice non diagonalizzabile
\paragraph{diagonalizzazione}
le matrici + semplici sono quelle diagonali $\begin{pmatrix}
@ -1163,6 +1171,8 @@ una matrice è diagonalizzabile se è simile ad una matrice diagonale
se A è diagonalizzabile la sua forma diagonale è composta dagli autovalori di A e inoltre la matrice diagonalizzante C è composta da una base di autovettori
$M_A(\lambda)=1 \implies M_A(\lambda) = M_G(\lambda)$
A diagonalizzabile $\iff \forall \lambda \text{ autovalore}, M_A(\lambda) = M_G(\lambda)$
\section{sistemi di equazioni lienari} con grado max 1
@ -1289,9 +1299,9 @@ un vettore singolo $v\in V$ è linearmente indipendente $\iff v\neq 0$
una base di V è un insieme di vettori $\{v_1...v_n\}$ che genera V e sono linearmente indipendenti
\paragraph{equicardinalità delle basi} le basi di uno spazio vettoriale hanno lo stesso numero di elementi. questo numero è detto dimensione di V, si indica con $dim(V)$
\paragraph{equicardinalità delle basi} le basi di uno spazio vettoriale hanno lo stesso numero di elementi. questo numero è detto dimensione di V, si indica con $\dim(V)$
se $dim(V)=N$
se $\dim(V)=N$
\begin{enumerate}
\item N vettori che generano V sono anche linearmente indipendenti
\item N vettori lin. indip. di V allora generano V
@ -1310,7 +1320,7 @@ dati vettori di V che generano esiste un loro sottoinsieme formante una base di
\item W è chiuso rispetto alla moltiplicazione per uno scalare ($\forall w\in W,\forall c\in\mathbb R \implies c\cdot w\in W$)
\end{enumerate}
se $W\subseteq V$ sottospazio, allora $dim(W)\leq dim(V)$, inoltre se $dim(W)=dim(V)$ allora $W=V$
se $W\subseteq V$ sottospazio, allora $\dim(W)\leq \dim(V)$, inoltre se $\dim(W)=\dim(V)$ allora $W=V$
\paragraph{sottospazi generati da vettori} dati $v_1,v_2,...,v_m\in V$ lo spazio generato da questi vettori è definito come $<v_1, v_2...v_m>=\{c_1v_1+c_2v_2+...+c_mb_m, c_1...c_m \text{ variano in } \mathbb R\}$
@ -1319,9 +1329,9 @@ $<v_1,v_2,...,v_m>\subseteq V$ è un sottospazio (la somma di combinazioni linea
\paragraph{sottospazio somma e intersezione}
\subparagraph{somma di sottospazio} \
siano $S\subseteq V$ e $T\subseteq V$ due sottospazi di V. $dim(S)=M, dim(T)=N$, definiamo $S+T=\{v+w|v\in S,w\in T\}\subseteq V$ in realtà è un sotospazio. come si trova una base di S+T? si parte da $B_S=\{v_1,...,v_m\}$ base di S e $B_T=\{w_1,...,w_n\}$ base di T allora S+T è generato da $v_1,...,v_m,w_1,...,w_n$ dai quali estraggo una base.
siano $S\subseteq V$ e $T\subseteq V$ due sottospazi di V. $\dim(S)=M, \dim(T)=N$, definiamo $S+T=\{v+w|v\in S,w\in T\}\subseteq V$ in realtà è un sotospazio. come si trova una base di S+T? si parte da $B_S=\{v_1,...,v_m\}$ base di S e $B_T=\{w_1,...,w_n\}$ base di T allora S+T è generato da $v_1,...,v_m,w_1,...,w_n$ dai quali estraggo una base.
$dim(S+T)\leq dim(S)+dim(T)$
$\dim(S+T)\leq \dim(S)+\dim(T)$
\subparagraph{intersezione}\
@ -1329,8 +1339,113 @@ $S, T$ sottospazi di $V$, $S\cap T=\{v\in V|v\in S, v\in T\} \subseteq V$ è un
\subparagraph{formula di grassman}\
$dim(S)+dim(T)=dim(S+T)+dim(S\cap T) \implies dim(S)+dim(T)+dim(S+T)=dim(S\cap T)$
$\dim(S)+\dim(T)=\dim(S+T)+\dim(S\cap T) \implies \dim(S)+\dim(T)+\dim(S+T)=\dim(S\cap T)$
$S,T \subseteq V$ sottospazi, se $S+T=V$ e $S\cap T = \{0\}$ si dice che $V=S\oplus T$ è somma diretta di S e T. ogni $v\in V$ si scrive in modo unico come $v=v_1+v_2)$ con $v_1\in S$ e $v_2\in T$
\paragraph{applicazioni lineare}/omomorfismi tra spazi vettoriali
siano $V,W$ due spazi vettoriali in $\mathbb K$, un'applicazione lineare tra V e W è $f: V \to W, \forall v\in V, \forall k\in \mathbb K, f(\sum\limits^n_{i=1}k_iv_i) = \sum\limits^n_{i=1}k_if(v_i)$
$\ker(f)=\{v\in V|f(v)=0\}\subseteq V$
$\ker(f)$ è un sottospazio vettoriale di $V$
$\ker = \text{kernel}$
$Im(f)=\{w\in W|\exists v\in V f(v)=w\}\subseteq W$
$Im(f)$ è un sottospazio vettoriale di $W$
sia $f:V\to W$ applicazione lineare, sia $\dim(V)=n$ allora $n=\dim(V)=\dim(\ker(f))+\dim(Im(f))$
un'applicazione lineare si dice
\begin{enumerate}
\item iniettiva quando la funzione è iniettiva
\item surgettiva quando la funzione è surgettiva
\item isomorfismo, quando è entrambe
\end{enumerate}
siano $V,W$ spazi vettoriali su $\mathbb K$, sia $B=\{v_1,...,v_n\}$ base di V, siano $w_1,...,w_n$ vettori qualsiasi di $W$, allora $\exists! f: V\to W$ applicazione lineare $\left\{ \begin{matrix}f(v_1)=w_1\\\vdots\\f(v_n)=w_n\end{matrix}\right. $
\paragraph{coordinate} V spazio vettoriale su $\mathbb R$ (in generale su un campo qualsiasi $\mathbb K$), fissiamo una base $B = \{v_1,...,v_n\}$ do V quindi $dim(V)=N$
ogni vettore $v\in V$ si può scrivere come combinazione lineare dei vettori della base in modo unico, $v = x_1v_1+....+x_nv_n$ con $x_1,...,x_n \in \mathbb R$ univocamene
il vettore $\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\in\mathbb R^n$ è detto vettore delle coordinate. si indica con $[v]_B$ oppure con $\underline{x}$
\subparagraph{applicazione delle coordinate}
$V$ con vase $B,dim(V)=n$ definiamo l'applicazione delle coordinate (rispetto a $B$) $\phi_B:\begin{matrix}V\to\mathbb R^N\\v\to [v]_B\end{matrix}$
$\phi_B$ è lineare ed un isomorfismo, quindi lavorare in V è come lavorare in $\mathbb R^N$, che è piú semplice
ogni spazio vettoriale V di dimensione N è isomorfo a $\mathbb R^N$ (due spazi vettoriali $V$ e $W$ della stessa dimensione, diciamo $N$, sono isomorfi, perché entrambi isomorfi a $R^N$)
\subparagraph{matrice del cambiamento di coordinate} V fissiamo due basi: $B$ e $e$, $B=\{v_1,v_2,...,v_n\}$, $e=\{w_1,...,w_n\}$
in particolare $dim(V) = n$, ogni vettore $v\in V$ ammette ue vettori di coordinate: $[v]_B$ e $[v]_e$
matrice del cambiamento di coordinate dalla base $B$ alla base $e$
$\leftindex_e{M}_B=$
\begin{math}
\begin{pmatrix}
|\qquad |\qquad\ |\ \ \\
[v_1]_e\ [v_2]_e...[v_n]_e\\
|\qquad |\qquad\ |\ \ \\
\end{pmatrix}
\end{math}
$\forall v\in V, [v]_e=\leftindex_e{M}_B \cdot [v]_B$
\paragraph{matrice rappresentative}
$f: V\to W$ applicazione lineare, $B=\{v_1,...,v_n\}$ base di $V$, $e=\{w_1,...,w_m\}$ base di $W$
la matrice di rappresentazione di $f$ rispetto alle basi $B$ e in dominio e $e$ in codominio
$\leftindex_e{M}_B(f)=$
\begin{math}
\begin{pmatrix}
|\qquad |\qquad\ |\ \ \\
[f(v_1)]_e\ [f(v_2)]_e...[f(v_n)]_e\\
|\qquad |\qquad\ |\ \ \\
\end{pmatrix}
\end{math}
$\leftindex_e{M}_B(f)=$ transforma le $B$-coordinate di $v$ nelle $e$-coordinate di $f(v)$
$\forall v\in V, [f(v)]_e=\leftindex_e{M}_B(f) \cdot [v]_B$
\paragraph{endomorfismo} se $W=V$, $f: V\to V$ è detto endomorfismo su $V$
siano $B$ e $e$ due basi di $V$ abbiamo due matrici di rappresentazione di $f$: $\leftindex_B{M}_B(f)$ e $\leftindex_e{M}_e(f)$, $\leftindex_e{M}_e(f)=\leftindex_e{M}_B \cdot\leftindex_B{M}_B(f) \cdot\leftindex_B{M}_e$
$\leftindex_e{M}_B=\leftindex_B{M}_e^{-1}$
$\leftindex_e{M}_e(f)=\leftindex_B{M}_e^{-1} \cdot\leftindex_B{M}_B(f) \cdot\leftindex_B{M}_e$ (formula di cambiamento delle matrici rappresentanti degli endomorfismi)
le matrici rappresentanti di un endomorfismo rispetto a basi diverse sono simili
diciamo che un endomorfismo $f: V\to V$ è diagonalizzabile se siste una base $B$ di $V$ tale che la matrice rappresentante $\leftindex_B{M}_B(f)$ è diagonale
$f: V\to V$ endomorfismo e sia $A$ una matrice rappresentante di $f \implies det(A)\neq0\iff f$ suriettivo $\iff f$ iniettivo
\paragraph{rango}
il rango di una matrice $A$ è anche uguale al massimo ordine di un minore non nullo, un minore di ordine k è il determinante di una sottomatrice formata da k righe e k colonne
$\begin{pmatrix}
1\ 0\ 0\\
0\ 1\ 1\\
0\ 2\ 2
\end{pmatrix},\left|\begin{matrix}
1\ 0\\
0\ 1
\end{matrix}\right| \neq 0,\left|\begin{matrix}
1\ 0\ 0\\
0\ 1\ 1\\
0\ 2\ 2
\end{matrix}\right| = 0,$ max ordine minore non nullo è 2
\end{document}