From c9f66760d4238b07820073a1c18da71c42b26538 Mon Sep 17 00:00:00 2001 From: Dario48 Date: Wed, 4 Feb 2026 17:32:10 +0100 Subject: [PATCH] new --- formule.tex | 131 ++++++++++++++++++++++++++++++++++++++++++++++++---- 1 file changed, 123 insertions(+), 8 deletions(-) diff --git a/formule.tex b/formule.tex index d4ada57..09fe4d0 100644 --- a/formule.tex +++ b/formule.tex @@ -4,11 +4,15 @@ \documentclass{article} \usepackage{amsmath} \usepackage{amssymb} +\usepackage{leftindex} \usepackage{enumitem} \usepackage{minted} +\usepackage{memoize} + +\usepackage{tikz} \usepackage{pgfplots} \usepgfplotslibrary{fillbetween} \pgfplotsset{compat=1.18} @@ -1141,11 +1145,15 @@ $p_A(t)=det(A-tI) \in \mathbb K[t]$ gli zeri di $p_A(t)$ in $\mathbb K$ sono gli autovalori di A, e viceversa -la moleplicità algebrica di un autovalore è la molteplicità dello zero come soluzione del polinomio $p_A(t)$ si indica con $M_A(\lambda)$ +la moleplicità algebrica di un autovalore è la molteplicità dello zero come soluzione del polinomio $M_A(\lambda)=\max m (x-a)^m|P(x)$ dato $\lambda$ un autovalore di A definiamo l'autospazio relativo all'autovalore $\lambda$: \\ $V_\lambda=\left\{ v=\begin{pmatrix}v_1\\v_2\\\vdots\\v_n\end{pmatrix}\in\mathbb K^N|Av=\lambda v \right\}$ = $\left\{ v\in\mathbb K^N|Av-\lambda v=0 \right\}$ = $\left\{ v\in\mathbb K^N|(A-\lambda I) v=0 \right\}$ -la molteplicità geometrica dell'autovalore $\lambda$ è la dimensione di $V_\lambda$. si indica con $M_G(\lambda)=dim(V_\lambda)$, $dim(V_\lambda)\geq 1) \forall\lambda$ autovalore +la molteplicità geometrica dell'autovalore $\lambda$ è la dimensione di $V_\lambda$. si indica con $M_G(\lambda)=\dim(V_\lambda)$, $\dim(V_\lambda)\geq 1\ \forall\lambda$ autovalore + +$1\leq m_g(a)\leq m_a(a)$ + +$n$ = ordine matrice, $\sum\limits_{a\text{ autovalori}}m_a(a)\neq n \implies$ matrice non diagonalizzabile \paragraph{diagonalizzazione} le matrici + semplici sono quelle diagonali $\begin{pmatrix} @@ -1163,6 +1171,8 @@ una matrice è diagonalizzabile se è simile ad una matrice diagonale se A è diagonalizzabile la sua forma diagonale è composta dagli autovalori di A e inoltre la matrice diagonalizzante C è composta da una base di autovettori +$M_A(\lambda)=1 \implies M_A(\lambda) = M_G(\lambda)$ + A diagonalizzabile $\iff \forall \lambda \text{ autovalore}, M_A(\lambda) = M_G(\lambda)$ \section{sistemi di equazioni lienari} con grado max 1 @@ -1289,9 +1299,9 @@ un vettore singolo $v\in V$ è linearmente indipendente $\iff v\neq 0$ una base di V è un insieme di vettori $\{v_1...v_n\}$ che genera V e sono linearmente indipendenti -\paragraph{equicardinalità delle basi} le basi di uno spazio vettoriale hanno lo stesso numero di elementi. questo numero è detto dimensione di V, si indica con $dim(V)$ +\paragraph{equicardinalità delle basi} le basi di uno spazio vettoriale hanno lo stesso numero di elementi. questo numero è detto dimensione di V, si indica con $\dim(V)$ -se $dim(V)=N$ +se $\dim(V)=N$ \begin{enumerate} \item N vettori che generano V sono anche linearmente indipendenti \item N vettori lin. indip. di V allora generano V @@ -1310,7 +1320,7 @@ dati vettori di V che generano esiste un loro sottoinsieme formante una base di \item W è chiuso rispetto alla moltiplicazione per uno scalare ($\forall w\in W,\forall c\in\mathbb R \implies c\cdot w\in W$) \end{enumerate} -se $W\subseteq V$ sottospazio, allora $dim(W)\leq dim(V)$, inoltre se $dim(W)=dim(V)$ allora $W=V$ +se $W\subseteq V$ sottospazio, allora $\dim(W)\leq \dim(V)$, inoltre se $\dim(W)=\dim(V)$ allora $W=V$ \paragraph{sottospazi generati da vettori} dati $v_1,v_2,...,v_m\in V$ lo spazio generato da questi vettori è definito come $=\{c_1v_1+c_2v_2+...+c_mb_m, c_1...c_m \text{ variano in } \mathbb R\}$ @@ -1319,9 +1329,9 @@ $\subseteq V$ è un sottospazio (la somma di combinazioni linea \paragraph{sottospazio somma e intersezione} \subparagraph{somma di sottospazio} \ -siano $S\subseteq V$ e $T\subseteq V$ due sottospazi di V. $dim(S)=M, dim(T)=N$, definiamo $S+T=\{v+w|v\in S,w\in T\}\subseteq V$ in realtà è un sotospazio. come si trova una base di S+T? si parte da $B_S=\{v_1,...,v_m\}$ base di S e $B_T=\{w_1,...,w_n\}$ base di T allora S+T è generato da $v_1,...,v_m,w_1,...,w_n$ dai quali estraggo una base. +siano $S\subseteq V$ e $T\subseteq V$ due sottospazi di V. $\dim(S)=M, \dim(T)=N$, definiamo $S+T=\{v+w|v\in S,w\in T\}\subseteq V$ in realtà è un sotospazio. come si trova una base di S+T? si parte da $B_S=\{v_1,...,v_m\}$ base di S e $B_T=\{w_1,...,w_n\}$ base di T allora S+T è generato da $v_1,...,v_m,w_1,...,w_n$ dai quali estraggo una base. -$dim(S+T)\leq dim(S)+dim(T)$ +$\dim(S+T)\leq \dim(S)+\dim(T)$ \subparagraph{intersezione}\ @@ -1329,8 +1339,113 @@ $S, T$ sottospazi di $V$, $S\cap T=\{v\in V|v\in S, v\in T\} \subseteq V$ è un \subparagraph{formula di grassman}\ -$dim(S)+dim(T)=dim(S+T)+dim(S\cap T) \implies dim(S)+dim(T)+dim(S+T)=dim(S\cap T)$ +$\dim(S)+\dim(T)=\dim(S+T)+\dim(S\cap T) \implies \dim(S)+\dim(T)+\dim(S+T)=\dim(S\cap T)$ $S,T \subseteq V$ sottospazi, se $S+T=V$ e $S\cap T = \{0\}$ si dice che $V=S\oplus T$ è somma diretta di S e T. ogni $v\in V$ si scrive in modo unico come $v=v_1+v_2)$ con $v_1\in S$ e $v_2\in T$ +\paragraph{applicazioni lineare}/omomorfismi tra spazi vettoriali + +siano $V,W$ due spazi vettoriali in $\mathbb K$, un'applicazione lineare tra V e W è $f: V \to W, \forall v\in V, \forall k\in \mathbb K, f(\sum\limits^n_{i=1}k_iv_i) = \sum\limits^n_{i=1}k_if(v_i)$ + +$\ker(f)=\{v\in V|f(v)=0\}\subseteq V$ + +$\ker(f)$ è un sottospazio vettoriale di $V$ + +$\ker = \text{kernel}$ + +$Im(f)=\{w\in W|\exists v\in V f(v)=w\}\subseteq W$ + +$Im(f)$ è un sottospazio vettoriale di $W$ + +sia $f:V\to W$ applicazione lineare, sia $\dim(V)=n$ allora $n=\dim(V)=\dim(\ker(f))+\dim(Im(f))$ + +un'applicazione lineare si dice +\begin{enumerate} + \item iniettiva quando la funzione è iniettiva + \item surgettiva quando la funzione è surgettiva + \item isomorfismo, quando è entrambe +\end{enumerate} + +siano $V,W$ spazi vettoriali su $\mathbb K$, sia $B=\{v_1,...,v_n\}$ base di V, siano $w_1,...,w_n$ vettori qualsiasi di $W$, allora $\exists! f: V\to W$ applicazione lineare $\left\{ \begin{matrix}f(v_1)=w_1\\\vdots\\f(v_n)=w_n\end{matrix}\right. $ + +\paragraph{coordinate} V spazio vettoriale su $\mathbb R$ (in generale su un campo qualsiasi $\mathbb K$), fissiamo una base $B = \{v_1,...,v_n\}$ do V quindi $dim(V)=N$ + +ogni vettore $v\in V$ si può scrivere come combinazione lineare dei vettori della base in modo unico, $v = x_1v_1+....+x_nv_n$ con $x_1,...,x_n \in \mathbb R$ univocamene + +il vettore $\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\in\mathbb R^n$ è detto vettore delle coordinate. si indica con $[v]_B$ oppure con $\underline{x}$ + +\subparagraph{applicazione delle coordinate} + +$V$ con vase $B,dim(V)=n$ definiamo l'applicazione delle coordinate (rispetto a $B$) $\phi_B:\begin{matrix}V\to\mathbb R^N\\v\to [v]_B\end{matrix}$ + +$\phi_B$ è lineare ed un isomorfismo, quindi lavorare in V è come lavorare in $\mathbb R^N$, che è piú semplice + +ogni spazio vettoriale V di dimensione N è isomorfo a $\mathbb R^N$ (due spazi vettoriali $V$ e $W$ della stessa dimensione, diciamo $N$, sono isomorfi, perché entrambi isomorfi a $R^N$) + +\subparagraph{matrice del cambiamento di coordinate} V fissiamo due basi: $B$ e $e$, $B=\{v_1,v_2,...,v_n\}$, $e=\{w_1,...,w_n\}$ + +in particolare $dim(V) = n$, ogni vettore $v\in V$ ammette ue vettori di coordinate: $[v]_B$ e $[v]_e$ + +matrice del cambiamento di coordinate dalla base $B$ alla base $e$ +$\leftindex_e{M}_B=$ +\begin{math} + \begin{pmatrix} + |\qquad |\qquad\ |\ \ \\ + [v_1]_e\ [v_2]_e...[v_n]_e\\ + |\qquad |\qquad\ |\ \ \\ + \end{pmatrix} +\end{math} + +$\forall v\in V, [v]_e=\leftindex_e{M}_B \cdot [v]_B$ + +\paragraph{matrice rappresentative} +$f: V\to W$ applicazione lineare, $B=\{v_1,...,v_n\}$ base di $V$, $e=\{w_1,...,w_m\}$ base di $W$ + +la matrice di rappresentazione di $f$ rispetto alle basi $B$ e in dominio e $e$ in codominio + + +$\leftindex_e{M}_B(f)=$ +\begin{math} + \begin{pmatrix} + |\qquad |\qquad\ |\ \ \\ + [f(v_1)]_e\ [f(v_2)]_e...[f(v_n)]_e\\ + |\qquad |\qquad\ |\ \ \\ + \end{pmatrix} +\end{math} + + +$\leftindex_e{M}_B(f)=$ transforma le $B$-coordinate di $v$ nelle $e$-coordinate di $f(v)$ + +$\forall v\in V, [f(v)]_e=\leftindex_e{M}_B(f) \cdot [v]_B$ + +\paragraph{endomorfismo} se $W=V$, $f: V\to V$ è detto endomorfismo su $V$ + +siano $B$ e $e$ due basi di $V$ abbiamo due matrici di rappresentazione di $f$: $\leftindex_B{M}_B(f)$ e $\leftindex_e{M}_e(f)$, $\leftindex_e{M}_e(f)=\leftindex_e{M}_B \cdot\leftindex_B{M}_B(f) \cdot\leftindex_B{M}_e$ + +$\leftindex_e{M}_B=\leftindex_B{M}_e^{-1}$ + +$\leftindex_e{M}_e(f)=\leftindex_B{M}_e^{-1} \cdot\leftindex_B{M}_B(f) \cdot\leftindex_B{M}_e$ (formula di cambiamento delle matrici rappresentanti degli endomorfismi) + +le matrici rappresentanti di un endomorfismo rispetto a basi diverse sono simili + +diciamo che un endomorfismo $f: V\to V$ è diagonalizzabile se siste una base $B$ di $V$ tale che la matrice rappresentante $\leftindex_B{M}_B(f)$ è diagonale + +$f: V\to V$ endomorfismo e sia $A$ una matrice rappresentante di $f \implies det(A)\neq0\iff f$ suriettivo $\iff f$ iniettivo + +\paragraph{rango} +il rango di una matrice $A$ è anche uguale al massimo ordine di un minore non nullo, un minore di ordine k è il determinante di una sottomatrice formata da k righe e k colonne + +$\begin{pmatrix} + 1\ 0\ 0\\ + 0\ 1\ 1\\ + 0\ 2\ 2 +\end{pmatrix},\left|\begin{matrix} + 1\ 0\\ + 0\ 1 +\end{matrix}\right| \neq 0,\left|\begin{matrix} + 1\ 0\ 0\\ + 0\ 1\ 1\\ + 0\ 2\ 2 +\end{matrix}\right| = 0,$ max ordine minore non nullo è 2 + \end{document}