Algèbre linéaire et matricielle - cheat sheet pas tout à fait terminée

Concept Propriété Exemple
Espaces vectoriels Espace linéaire $E$ avec addition $\oplus$ et multiplication par un scalaire dans $K$ $\cdot$. $\mathbb{R}^n$, $\mathbb{R}_n[X]$.
Famille libre, génératrice, base famille libre et génératrice = base.
Dimension, base $\dim_K E = \mathrm{card}\; \mathcal{B}$.
Noyau, image Pour $f$ application linéaire de $E$ vers $F$, $\ker f = \{ x \in E | f(x) = 0 \}$ et $\mathrm{im}\; f = \{y \in F | y = f(x), x \in E \}$.
Rang $\mathrm{rang}\; f = \dim (\mathrm{im}\; f)$.
Théorème du rang $E$ e.v. dimension finie et $f: E \to F$, alors $\mathrm{rang}\; f = \dim E$ si et seulement si $f$ est injective, et $\mathrm{rang}\; f = \dim F$ si et seulement si $f$ est surjective. Si $\dim E = \dim F$, $f$ est injective si et seulement si $f$ est surjective.
Déterminant $\det(A) = |A|$. $\det AB = \det BA = \det A \det B$. Si $A$ diagonale ou triangulaire par bloc, le déterminant est le produit de la diagionale.
Produit scalaire $x^* y = \sum_{i=1}^n \bar x_i y_i$. $\sqrt{x^* x} = ||x||_2$ la norme euclidienne.
Matrice orthogonale Pour tout $x \neq y$ vecteurs colonnes de $A$, $x^* y = 0$. Matrice unitaire $Q$: matrice qui satisfait $Q^* Q = I$.
Inversibilité de matrice carrée de taille $n$ $\det A \neq 0$, $\mathrm{rang}\; A = n$, $\ker A = \{0\}$,...
Inverse de matrice fois vecteur $x = A^{-1}b$ Si $x = A^{-1}b$, le vecteur $x$ est le vecteur $b$ exprimé dans la base formée par les vecteurs colonnes de $A$.
Valeurs propres et vecteurs propres Si $A x = \lambda x$ pour $x \neq 0$, $x$ est un vecteur propre, $\lambda$ une valeur propre.
Décomposition en valeurs propres $A = X D X^{-1}$. N'existe pas toujours en général. Existe toutjours pour les matrices hermitiennes.
Multiplicité géométrique d'une valeur propre Dimension du sous-espace propre, le s.e.v. engendré par les vecteurs propres associés à la valeur propre. Pour la matrice identité de taille $n$, la multiplicité géométrique de $\lambda = 1$ est $n$. Pour $A = [1 2; 0 1]$ la multiplicité géométrique de $\lambda = 1$ est 1.
Polynôme caractéristique $p_A(z) = \det(z I - A) = |z I - A|$. Les racines de $p_A$ sont les valeurs propres de $A$. Une matrice $A$ de taille $n$ possède $n$ valeurs propres, en comptant les racines multiples.
Multiplicité algébrique d'une valeur propre Multiplicité algébrique en tant que racine du polynôme caractéristique.
Multiplicité algébrique d'une valeur propre Multiplicité algébrique en tant que racine du polynôme caractéristique. Une matrice est diagonalisable si et seulement si les mutliplicités géométriques et algébriques sont les mêmes. Pour la matrice identité de taille $n$, la multiplicité géométrique de $\lambda = 1$ est $n$. Pour $A = [1 2; 0 1]$ la multiplicité géométrique de $\lambda = 1$ est 2.
Matrices semblables Si $A = X B X^{-1}$ pour $X$ inversible, on dit que $A$ et $B$ sont semblables. Les matrices semblables on le même polynôme caractéristique et les mêmes valeurs propres. Si $A$ est diagonalisable en $A = X D X^{-1}$, $A$ est semblable à la matrice diagonale $D$
Décomposition en valeurs singulières réduite Pour $A$ matrice $m \times n$, $A = \tilde U \tilde \Sigma V^*$ avec $\tilde U$ matrice $m \times n$, $\tilde \Sigma$ matrice diagonale de valeurs singulières $n \times n$ et $V$ matrice $n \times n$. Les valeurs singulières sont les longueurs des grands axes de l'ellipsoïde image de la sphère unité.
Décomposition en valeurs singulières complète Pour $A$ matrice $m \times n$, $A = U \Sigma V^*$ avec $U$ matrice unitaire $m \times m$, $\Sigma$ matrice diagonale de valeurs singulière $m \times n$ et $V$ matrice $n \times n$. Les valeurs singulières sont les longueurs des grands axes de l'ellipsoïde image de la sphère unité.
Problème de moindres carrés Pour un système sur-déterminé $A x = b$ avec $A$ matrice $m \times n$, $m > n$, le problème est de minimiser $|| b - A x ||_2$.
Equations normales Pour le problème sur-déterminé $A x = b$, $x = (A^*A)^{-1}A^* b$ est solution dans le sens des moindres carrés.
Pseudo-inverse La pseudo-inverse de $A$ est définie comme la matrice $A^+ = (A^*A)^{-1}A^*$.
Projecteur Matrice carrée $P$ qui satisfait $P^2 = P$. $I-P$ est projecteur, $\mathrm{im}\; P = \ker(I-P)$, $\mathrm{im}\; P \cap \ker P = \{0\}$.
Projecteur orthogonal Matrice carrée $P$ qui projète orthogonalement. $P$ est projecteur orthogonal si et seulement si $P = P^*$. Si $\hat Q = [q_1|q_2|...|q_n]$ est une matrice $m \times n$, alors $P = QQ^*$ est un projecteur orthogonal, qui projète orthogonalement sur le sous-espace engendré par les vecteurs colonnes $q_1, ..., q_n$. Projecteur othogonal sur l'espace orthogonal à un vecteur $q$ $q$, $P_{\perp q} = I - qq^*$.
Factorisation QR Décomposition $A = QR$ avec $Q$ unitaire et $R$ triangulaire supérieure et diagonale positive. Inversement stable.
Algorithme Gram-Schmidt Orthogonalisation - construction d'une base orthonormée qui engendre successivement les $i$ premiers vecteurs colonnes de $A$. Deux versions: classique et modifiée. La version classique est instable numériquement.
Triangularisation de Householder Triangulariation - élimination des termes non-nuls sous la diagonale par des matrices unitaires. Réflecteurs de Householder $F = I - 2 vv^*/(v^*v)$ avec $\mathrm{sign}(x_1)||x||e_1 - x$. Inversement stable.
Méthode des puisssances Algorithmes pour valeurs propres, calcul des puissances de $A^i r/||A^i r||$ pour un vecteur initial $r$. Sous de bonnes conditions, $A^i r$ converge vers le vecteur propre associé à la plus grande valeur propre.
Factorisation de Schur Décomposition $A = Q T Q^*$ avec $Q$ unitaire et $T$ triangulaire. La factorisation de Schur existe toujours pour une matrice carrée.
Algorithme QR pour les valeurs propres $A_0 = A$, on calcule la factorisation QR, $A_k = Q_k R_k$ et on pose $A_{k+1} = R_k Q_k$. Les matrices $A_k$ sont semblables. Sous de bonnes conditions, $A_k$ converge vers une matrice triangulaire. Les matrices $A_k$ révèlent les valeurs propres.
Factorisation LU Décomposition $A = LU$ avec $L$ une matrice triangulaire inférieure et $U$ une matrice triangulaire supérieure. Version matricielle de l'élimination de Gauss. Existe toujours (peut demander un pivot). Inversement instable sans pivot. Avec pivot, stable en pratique.
Décomposition de Jordan Décomposition $A = X J X^{-1}$ avec $X$ une matrice inversible de vecteurs propres généralisés et $J$ une matrice de Jordan, diagonale par blocs, qui généralise la décomposition en valeurs propres. Existe toujours.
Système linéaire Résolution d'un système linéaire $Ax = b$. Algorithme $QR$ avec triangularisation de Householder: $4/3 m^3$ opérations. Factorisation $LU$: $2/3 m^3$ opérations