| Concept | Propriété | Exemple |
|---|---|---|
| Espaces vectoriels | Espace linéaire $E$ avec addition $\oplus$ et multiplication par un scalaire dans $K$ $\cdot$. | $\mathbb{R}^n$, $\mathbb{R}_n[X]$. |
| Famille libre, génératrice, base | famille libre et génératrice = base. | |
| Dimension, base | $\dim_K E = \mathrm{card}\; \mathcal{B}$. | |
| Noyau, image | Pour $f$ application linéaire de $E$ vers $F$, $\ker f = \{ x \in E | f(x) = 0 \}$ et $\mathrm{im}\; f = \{y \in F | y = f(x), x \in E \}$. | |
| Rang | $\mathrm{rang}\; f = \dim (\mathrm{im}\; f)$. | |
| Théorème du rang | $E$ e.v. dimension finie et $f: E \to F$, alors $\mathrm{rang}\; f = \dim E$ si et seulement si $f$ est injective, et $\mathrm{rang}\; f = \dim F$ si et seulement si $f$ est surjective. | Si $\dim E = \dim F$, $f$ est injective si et seulement si $f$ est surjective. |
| Déterminant | $\det(A) = |A|$. $\det AB = \det BA = \det A \det B$. | Si $A$ diagonale ou triangulaire par bloc, le déterminant est le produit de la diagionale. |
| Produit scalaire | $x^* y = \sum_{i=1}^n \bar x_i y_i$. | $\sqrt{x^* x} = ||x||_2$ la norme euclidienne. |
| Matrice orthogonale | Pour tout $x \neq y$ vecteurs colonnes de $A$, $x^* y = 0$. | Matrice unitaire $Q$: matrice qui satisfait $Q^* Q = I$. |
| Inversibilité de matrice carrée de taille $n$ | $\det A \neq 0$, $\mathrm{rang}\; A = n$, $\ker A = \{0\}$,... | |
| Inverse de matrice fois vecteur $x = A^{-1}b$ | Si $x = A^{-1}b$, le vecteur $x$ est le vecteur $b$ exprimé dans la base formée par les vecteurs colonnes de $A$. | |
| Valeurs propres et vecteurs propres | Si $A x = \lambda x$ pour $x \neq 0$, $x$ est un vecteur propre, $\lambda$ une valeur propre. | |
| Décomposition en valeurs propres | $A = X D X^{-1}$. N'existe pas toujours en général. Existe toutjours pour les matrices hermitiennes. | |
| Multiplicité géométrique d'une valeur propre | Dimension du sous-espace propre, le s.e.v. engendré par les vecteurs propres associés à la valeur propre. | Pour la matrice identité de taille $n$, la multiplicité géométrique de $\lambda = 1$ est $n$. Pour $A = [1 2; 0 1]$ la multiplicité géométrique de $\lambda = 1$ est 1. |
| Polynôme caractéristique | $p_A(z) = \det(z I - A) = |z I - A|$. Les racines de $p_A$ sont les valeurs propres de $A$. Une matrice $A$ de taille $n$ possède $n$ valeurs propres, en comptant les racines multiples. | |
| Multiplicité algébrique d'une valeur propre | Multiplicité algébrique en tant que racine du polynôme caractéristique. | |
| Multiplicité algébrique d'une valeur propre | Multiplicité algébrique en tant que racine du polynôme caractéristique. Une matrice est diagonalisable si et seulement si les mutliplicités géométriques et algébriques sont les mêmes. | Pour la matrice identité de taille $n$, la multiplicité géométrique de $\lambda = 1$ est $n$. Pour $A = [1 2; 0 1]$ la multiplicité géométrique de $\lambda = 1$ est 2. |
| Matrices semblables | Si $A = X B X^{-1}$ pour $X$ inversible, on dit que $A$ et $B$ sont semblables. Les matrices semblables on le même polynôme caractéristique et les mêmes valeurs propres. | Si $A$ est diagonalisable en $A = X D X^{-1}$, $A$ est semblable à la matrice diagonale $D$ |
| Décomposition en valeurs singulières réduite | Pour $A$ matrice $m \times n$, $A = \tilde U \tilde \Sigma V^*$ avec $\tilde U$ matrice $m \times n$, $\tilde \Sigma$ matrice diagonale de valeurs singulières $n \times n$ et $V$ matrice $n \times n$. Les valeurs singulières sont les longueurs des grands axes de l'ellipsoïde image de la sphère unité. | |
| Décomposition en valeurs singulières complète | Pour $A$ matrice $m \times n$, $A = U \Sigma V^*$ avec $U$ matrice unitaire $m \times m$, $\Sigma$ matrice diagonale de valeurs singulière $m \times n$ et $V$ matrice $n \times n$. Les valeurs singulières sont les longueurs des grands axes de l'ellipsoïde image de la sphère unité. | |
| Problème de moindres carrés | Pour un système sur-déterminé $A x = b$ avec $A$ matrice $m \times n$, $m > n$, le problème est de minimiser $|| b - A x ||_2$. | |
| Equations normales | Pour le problème sur-déterminé $A x = b$, $x = (A^*A)^{-1}A^* b$ est solution dans le sens des moindres carrés. | |
| Pseudo-inverse | La pseudo-inverse de $A$ est définie comme la matrice $A^+ = (A^*A)^{-1}A^*$. | |
| Projecteur | Matrice carrée $P$ qui satisfait $P^2 = P$. $I-P$ est projecteur, $\mathrm{im}\; P = \ker(I-P)$, $\mathrm{im}\; P \cap \ker P = \{0\}$. | |
| Projecteur orthogonal | Matrice carrée $P$ qui projète orthogonalement. $P$ est projecteur orthogonal si et seulement si $P = P^*$. Si $\hat Q = [q_1|q_2|...|q_n]$ est une matrice $m \times n$, alors $P = QQ^*$ est un projecteur orthogonal, qui projète orthogonalement sur le sous-espace engendré par les vecteurs colonnes $q_1, ..., q_n$. | Projecteur othogonal sur l'espace orthogonal à un vecteur $q$ $q$, $P_{\perp q} = I - qq^*$. |
| Factorisation QR | Décomposition $A = QR$ avec $Q$ unitaire et $R$ triangulaire supérieure et diagonale positive. Inversement stable. | |
| Algorithme Gram-Schmidt | Orthogonalisation - construction d'une base orthonormée qui engendre successivement les $i$ premiers vecteurs colonnes de $A$. Deux versions: classique et modifiée. La version classique est instable numériquement. | |
| Triangularisation de Householder | Triangulariation - élimination des termes non-nuls sous la diagonale par des matrices unitaires. Réflecteurs de Householder $F = I - 2 vv^*/(v^*v)$ avec $\mathrm{sign}(x_1)||x||e_1 - x$. Inversement stable. | |
| Méthode des puisssances | Algorithmes pour valeurs propres, calcul des puissances de $A^i r/||A^i r||$ pour un vecteur initial $r$. Sous de bonnes conditions, $A^i r$ converge vers le vecteur propre associé à la plus grande valeur propre. | |
| Factorisation de Schur | Décomposition $A = Q T Q^*$ avec $Q$ unitaire et $T$ triangulaire. La factorisation de Schur existe toujours pour une matrice carrée. | |
| Algorithme QR pour les valeurs propres | $A_0 = A$, on calcule la factorisation QR, $A_k = Q_k R_k$ et on pose $A_{k+1} = R_k Q_k$. Les matrices $A_k$ sont semblables. Sous de bonnes conditions, $A_k$ converge vers une matrice triangulaire. | Les matrices $A_k$ révèlent les valeurs propres. |
| Factorisation LU | Décomposition $A = LU$ avec $L$ une matrice triangulaire inférieure et $U$ une matrice triangulaire supérieure. Version matricielle de l'élimination de Gauss. Existe toujours (peut demander un pivot). Inversement instable sans pivot. Avec pivot, stable en pratique. | |
| Décomposition de Jordan | Décomposition $A = X J X^{-1}$ avec $X$ une matrice inversible de vecteurs propres généralisés et $J$ une matrice de Jordan, diagonale par blocs, qui généralise la décomposition en valeurs propres. Existe toujours. | |
| Système linéaire | Résolution d'un système linéaire $Ax = b$. Algorithme $QR$ avec triangularisation de Householder: $4/3 m^3$ opérations. Factorisation $LU$: $2/3 m^3$ opérations |