Concept
|
Propriété
|
Exemple
|
Espaces vectoriels
|
Espace linéaire $E$ avec addition $\oplus$ et multiplication par un scalaire dans $K$ $\cdot$.
|
$\mathbb{R}^n$, $\mathbb{R}_n[X]$.
|
Famille libre, génératrice, base
|
famille libre et génératrice = base.
|
|
Dimension, base
|
$\dim_K E = \mathrm{card}\; \mathcal{B}$.
|
|
Noyau, image
|
Pour $f$ application linéaire de $E$ vers $F$, $\ker f = \{ x \in E | f(x) = 0 \}$ et $\mathrm{im}\; f = \{y \in F | y = f(x), x \in E \}$.
|
|
Rang
|
$\mathrm{rang}\; f = \dim (\mathrm{im}\; f)$.
|
|
Théorème du rang
|
$E$ e.v. dimension finie et $f: E \to F$, alors $\mathrm{rang}\; f = \dim E$ si et seulement si $f$ est injective, et $\mathrm{rang}\; f = \dim F$ si et seulement si $f$ est surjective.
|
Si $\dim E = \dim F$, $f$ est injective si et seulement si $f$ est surjective.
|
Déterminant
|
$\det(A) = |A|$. $\det AB = \det BA = \det A \det B$.
|
Si $A$ diagonale ou triangulaire par bloc, le déterminant est le produit de la diagionale.
|
Produit scalaire
|
$x^* y = \sum_{i=1}^n \bar x_i y_i$.
|
$\sqrt{x^* x} = ||x||_2$ la norme euclidienne.
|
Matrice orthogonale
|
Pour tout $x \neq y$ vecteurs colonnes de $A$, $x^* y = 0$.
|
Matrice unitaire $Q$: matrice qui satisfait $Q^* Q = I$.
|
Inversibilité de matrice carrée de taille $n$
|
$\det A \neq 0$, $\mathrm{rang}\; A = n$, $\ker A = \{0\}$,...
|
|
Inverse de matrice fois vecteur $x = A^{-1}b$
|
Si $x = A^{-1}b$, le vecteur $x$ est le vecteur $b$ exprimé dans la base formée par les vecteurs colonnes de $A$.
|
|
Valeurs propres et vecteurs propres
|
Si $A x = \lambda x$ pour $x \neq 0$, $x$ est un vecteur propre, $\lambda$ une valeur propre.
|
|
Décomposition en valeurs propres
|
$A = X D X^{-1}$. N'existe pas toujours en général. Existe toutjours pour les matrices hermitiennes.
|
|
Multiplicité géométrique d'une valeur propre
|
Dimension du sous-espace propre, le s.e.v. engendré par les vecteurs propres associés à la valeur propre.
|
Pour la matrice identité de taille $n$, la multiplicité géométrique de $\lambda = 1$ est $n$. Pour $A = [1 2; 0 1]$ la multiplicité géométrique de $\lambda = 1$ est 1.
|
Polynôme caractéristique
|
$p_A(z) = \det(z I - A) = |z I - A|$. Les racines de $p_A$ sont les valeurs propres de $A$. Une matrice $A$ de taille $n$ possède $n$ valeurs propres, en comptant les racines multiples.
|
|
Multiplicité algébrique d'une valeur propre
|
Multiplicité algébrique en tant que racine du polynôme caractéristique.
|
|
Multiplicité algébrique d'une valeur propre
|
Multiplicité algébrique en tant que racine du polynôme caractéristique. Une matrice est diagonalisable si et seulement si les mutliplicités géométriques et algébriques sont les mêmes.
|
Pour la matrice identité de taille $n$, la multiplicité géométrique de $\lambda = 1$ est $n$. Pour $A = [1 2; 0 1]$ la multiplicité géométrique de $\lambda = 1$ est 2.
|
Matrices semblables
|
Si $A = X B X^{-1}$ pour $X$ inversible, on dit que $A$ et $B$ sont semblables. Les matrices semblables on le même polynôme caractéristique et les mêmes valeurs propres.
|
Si $A$ est diagonalisable en $A = X D X^{-1}$, $A$ est semblable à la matrice diagonale $D$
|
Décomposition en valeurs singulières réduite
|
Pour $A$ matrice $m \times n$, $A = \tilde U \tilde \Sigma V^*$ avec $\tilde U$ matrice $m \times n$, $\tilde \Sigma$ matrice diagonale de valeurs singulières $n \times n$ et $V$ matrice $n \times n$. Les valeurs singulières sont les longueurs des grands axes de l'ellipsoïde image de la sphère unité.
|
|
Décomposition en valeurs singulières complète
|
Pour $A$ matrice $m \times n$, $A = U \Sigma V^*$ avec $U$ matrice unitaire $m \times m$, $\Sigma$ matrice diagonale de valeurs singulière $m \times n$ et $V$ matrice $n \times n$. Les valeurs singulières sont les longueurs des grands axes de l'ellipsoïde image de la sphère unité.
|
|
Problème de moindres carrés
|
Pour un système sur-déterminé $A x = b$ avec $A$ matrice $m \times n$, $m > n$, le problème est de minimiser $|| b - A x ||_2$.
|
|
Equations normales
|
Pour le problème sur-déterminé $A x = b$, $x = (A^*A)^{-1}A^* b$ est solution dans le sens des moindres carrés.
|
|
Pseudo-inverse
|
La pseudo-inverse de $A$ est définie comme la matrice $A^+ = (A^*A)^{-1}A^*$.
|
|
Projecteur
|
Matrice carrée $P$ qui satisfait $P^2 = P$. $I-P$ est projecteur, $\mathrm{im}\; P = \ker(I-P)$, $\mathrm{im}\; P \cap \ker P = \{0\}$.
|
|
Projecteur orthogonal
|
Matrice carrée $P$ qui projète orthogonalement. $P$ est projecteur orthogonal si et seulement si $P = P^*$. Si $\hat Q = [q_1|q_2|...|q_n]$ est une matrice $m \times n$, alors $P = QQ^*$ est un projecteur orthogonal, qui projète orthogonalement sur le sous-espace engendré par les vecteurs colonnes $q_1, ..., q_n$.
|
Projecteur othogonal sur l'espace orthogonal à un vecteur $q$ $q$, $P_{\perp q} = I - qq^*$.
|
Factorisation QR
|
Décomposition $A = QR$ avec $Q$ unitaire et $R$ triangulaire supérieure et diagonale positive.
Inversement stable.
|
|
Algorithme Gram-Schmidt
|
Orthogonalisation - construction d'une base orthonormée qui engendre successivement les $i$ premiers vecteurs colonnes de $A$.
Deux versions: classique et modifiée. La version classique est instable numériquement.
|
|
Triangularisation de Householder
|
Triangulariation - élimination des termes non-nuls sous la diagonale par des matrices unitaires.
Réflecteurs de Householder $F = I - 2 vv^*/(v^*v)$ avec $\mathrm{sign}(x_1)||x||e_1 - x$.
Inversement stable.
|
|
Méthode des puisssances
|
Algorithmes pour valeurs propres, calcul des puissances de $A^i r/||A^i r||$ pour un vecteur initial $r$. Sous de bonnes conditions, $A^i r$ converge vers le vecteur propre associé à la plus grande valeur propre.
|
|
Factorisation de Schur
|
Décomposition $A = Q T Q^*$ avec $Q$ unitaire et $T$ triangulaire. La factorisation de Schur existe toujours pour une matrice carrée.
|
|
Algorithme QR pour les valeurs propres
|
$A_0 = A$, on calcule la factorisation QR, $A_k = Q_k R_k$ et on pose $A_{k+1} = R_k Q_k$. Les matrices $A_k$ sont semblables. Sous de bonnes conditions, $A_k$ converge vers une matrice triangulaire.
|
Les matrices $A_k$ révèlent les valeurs propres.
|
Factorisation LU
|
Décomposition $A = LU$ avec $L$ une matrice triangulaire inférieure et $U$ une matrice triangulaire supérieure. Version matricielle de l'élimination de Gauss. Existe toujours (peut demander un pivot).
Inversement instable sans pivot. Avec pivot, stable en pratique.
|
|
Décomposition de Jordan
|
Décomposition $A = X J X^{-1}$ avec $X$ une matrice inversible de vecteurs propres généralisés et $J$ une matrice de Jordan, diagonale par blocs, qui généralise la décomposition en valeurs propres. Existe toujours.
|
|
Système linéaire
|
Résolution d'un système linéaire $Ax = b$. Algorithme $QR$ avec triangularisation de Householder: $4/3 m^3$ opérations. Factorisation $LU$: $2/3 m^3$ opérations
|
|