En algèbre linéaire, une décomposition matricielle ou factorisation matricielle est une factorisation de matrice en un produit de matrices. Il existe de nombreuses décompositions matricielles différentes ; chacune trouvant son utilité dans une classe particulière de problèmes.
En analyse numérique, différentes décompositions sont utilisées pour mettre en œuvre des algorithmes matriciels efficaces : par exemple une complexité moindre ou moins d'erreurs d'arrondis.
Par exemple, lors de la résolution d'un système d'équations linéaires, la matrice A peut être décomposée via la décomposition LU (pour Low / Up en anglais). La décomposition LU factorise une matrice en une matrice triangulaire inférieureL et une matrice triangulaire supérieureU . Les systèmes et nécessitent moins d'additions et de multiplications pour être résolus, par rapport au système d'origine , bien que l'on puisse avoir besoin de beaucoup plus de chiffres lors d'une résolution numérique utilisant la virgule flottante comme représentation des nombres.
De même, la décomposition QR exprime A sous la forme QR avec Q une matrice orthogonale et R une matrice triangulaire supérieure. Le système est résolu par , et le système est résolu en « remontant » les équations obtenues. Le nombre d'additions et de multiplications requis est environ le double de celui de l'utilisation de la décomposition LU, mais aucun chiffre supplémentaire n'est requis en arithmétique inexacte car la décomposition QR est numériquement stable.
Décompositions liées à la résolution de systèmes d'équations linéaires
Existence : Une décomposition PLU existe pour toute matrice carrée A . Lorsque P est une matrice identité, la décomposition PLU se réduit à la décomposition LU.
Commentaires : Les décompositions PLU et LU sont utiles pour résoudre un système d'équations linéaires. . Ces décompositions résument le processus d'élimination gaussienne sous forme matricielle. La matrice P représente tous les échanges de lignes effectués dans le processus d'élimination gaussienne. Si l’élimination gaussienne produit la forme échelonnée de lignes sans nécessiter d’échanges de lignes, alors , donc une décomposition LU existe.
Décomposition : où C est une matrice de rang de colonne maximal et F est une matrice de rang de ligne maximal .
Commentaire : La factorisation de rang peut être utilisée pour calculer le pseudo-inverse de Moore – Penrose de A[2], que l'on peut appliquer pour obtenir toutes les solutions du système linéaire .
Décomposition : , où est triangulaire supérieur avec de réelles entrées diagonales positives.
Commentaire : si la matrice est hermitienne et semi-définie positive, alors elle a une décomposition de la forme si les entrées diagonales de sont autorisés à être nuls.
Unicité : pour les matrices définies positives, la décomposition de Cholesky est unique. Cependant, ce n'est pas vrai dans le cas semi-défini positif.
Commentaire : si est réelle et symétrique, a tous ses éléments réels.
Commentaire : Une alternative est la décomposition LDL, qui permet d'éviter l'extraction des racines carrées.
Unicité : En général, ce n’est pas unique, mais si est de rang maximal (), alors il existe une seule matrice qui a tous ses éléments diagonaux positifs. Si est carré, aussi est unique.
Commentaire : La décomposition fournit un moyen efficace de résoudre le système d'équations . Le fait que soit orthogonale signifie que , de sorte que est équivalent à , ce qui est très simple à résoudre puisque est triangulaire.
Existence : une matrice a toujours valeurs propres (complexes), qui peuvent être ordonnées (de plusieurs manières) pour former une matrice diagonale et une matrice correspondante de colonnes non nulles qui satisfait l'équation des valeurs propres. est inversible si et seulement si les vecteurs propres sont linéairement indépendants (c'est-à-dire que chaque valeur propre a une multiplicité géométrique égale à sa multiplicité algébrique). Une condition suffisante (mais pas nécessaire) pour que cela se produise est que toutes les valeurs propres soient différentes (dans ce cas les multiplicités géométriques et algébriques sont égales à 1).
Commentaire : toute matrice normaleA (c'est-à-dire une matrice pour laquelle , où est la matrice adjointe de ) peut être décomposée en éléments propres. Pour une matrice normaleA (et uniquement pour une matrice normale), les vecteurs propres peuvent également être rendus orthonormés () et la décomposition sera . En particulier, toutes les matrices unitaires, hermitiennes ou antihermitienne (dans le cas des réels, toutes les matrices orthogonales, symétriques ou antisymétriques, respectivement) sont normales et possèdent donc cette propriété.
Commentaire : Pour toute matrice symétrique réelle A, la décomposition propre existe toujours et peut s'écrire sous la forme , où D et P sont toutes deux réelles.
Commentaire : la décomposition propre est utile pour comprendre la solution d'un système d'équations différentielles ordinaires linéaires ou d'équations aux différences linéaires. Par exemple, l'équation de différence à partir de la condition initiale est résolu par , ce qui équivaut à , où P et D sont les matrices formées à partir des vecteurs propres et des valeurs propres de A . Puisque D est diagonale, l'élever à la puissance , consiste simplement à élever chaque coefficient de la diagonale à la puissance t. C'est beaucoup plus facile à faire et à comprendre que d'élever A à la puissance t, puisque A n'est généralement pas diagonale.
Commentaire : la forme normale de Jordan généralise la décomposition spectrale aux cas où il y a des valeurs propres répétées et ne peuvent pas être diagonalisées, la décomposition de Dunford le fait sans choisir de base.
Décomposition : il s'agit d'une version de la décomposition de Schur où et ne contiennent que des nombres réels. On peut toujours écrire où P est une matrice orthogonale réelle, est la transposée de P, et S est une matrice triangulaire supérieure par bloc appelée forme réelle de Schur. Les blocs sur la diagonale de S sont de taille (auquel cas ils représentent des valeurs propres réelles) ou (auquel cas ils sont dérivés de paires de valeurs propres conjuguées complexes).
Commentaire : dans la décomposition complexe QZ, les rapports des éléments diagonaux de S aux éléments diagonaux correspondants de T, , sont les valeurs propres généralisées qui résolvent le problème des valeurs propres généralisées (où est un scalaire inconnu et est un vecteur inconnu non nul).
Décomposition (version réelle) : et où A, B, Q, Z, S et T sont des matrices contenant uniquement des nombres réels. Dans ce cas, Q et Z sont des matrices orthogonales, l'exposant représente la transposition et S et T sont des matrices triangulaires supérieures en bloc. Les blocs sur la diagonale de S et T sont de taille ou .
Commentaire : les éléments diagonaux de D sont les racines carrées positives des valeurs propres de .
Commentaire : P peut être complexe même si A est réel.
Commentaire : il ne s'agit pas d'un cas particulier de la décomposition propre (voir ci-dessus), qui utilise au lieu de . De plus, si A n’est pas réel, il n’est pas hermitien et la forme utilisant ne s’applique pas non plus.
Décomposition: , où D est une matrice diagonale non négative, et U et V satisfont . Ici est la transconjuguée de V (ou simplement la transposée, si V ne contient que des nombres réels), et I désigne la matrice identité (d'une certaine dimension).
Commentaire : Les éléments diagonaux de D sont appelés valeurs singulières de A.
Commentaire : Comme la décomposition spectrale ci-dessus, la décomposition en valeurs singulières implique de trouver des directions de base le long desquelles la multiplication matricielle est équivalente à la multiplication scalaire, mais elle a une plus grande généralité puisque la matrice considérée n'a pas besoin d'être carrée.
Unicité : les valeurs singulières de sont toujours déterminés de manière unique. et ne sont pas nécessairement uniques.
Fait référence à des variantes de décompositions matricielles existantes, telles que la décomposition en valeurs singulières (SVD), qui sont invariantes par dilatation.
Applicable à une matrice A de taille .
Décomposition en valeurs singulières invariantes par dilatation unitaire : , où S est une matrice diagonale non négative unique de valeurs singulières invariantes d'échelle, U et V sont des matrices unitaires, est la transposée-conjuguée de V et des matrices diagonales positives D et E.
Commentaire : elle est analogue au SVD sauf que les éléments diagonaux de S sont invariants par rapport à la multiplication gauche et/ou droite de A par des matrices diagonales arbitraires non singulières, par opposition au SVD standard pour lequel les valeurs singulières sont invariantes par rapport à la gauche et/ou multiplication à droite de A par des matrices unitaires quelconques.
Commentaire : elle est une alternative au SVD standard lorsque l'invariance est requise par rapport aux transformations diagonales plutôt qu'unitaires de A.
Unicité : les valeurs singulières invariantes à l'échelle de (donnés par les éléments diagonaux de S) sont toujours déterminés de manière unique. Les matrices diagonales D et E, et unitaires U et V, ne sont pas nécessairement uniques en général.
Commentaire : les matrices U et V ne sont pas les mêmes que celles du SVD.
Des décompositions analogues invariantes d'échelle peuvent être dérivées d'autres décompositions matricielles ; par exemple, pour obtenir des valeurs propres invariantes à l'échelle.
Unicité : est toujours unique et égal à (qui est toujours hermitienne et semi-définie positive). Si est inversible, alors est unique.
Commentaire : Puisque toute matrice hermitienne admet une décomposition spectrale avec une matrice unitaire, peut s'écrire comme . Comme est semi-définie positive, tous les éléments de sont non négatifs. Puisque le produit de deux matrices unitaires est unitaire, en prenant on peut écrire qui est la décomposition en valeurs singulières. Par conséquent, l’existence de la décomposition polaire équivaut à l’existence de la décomposition en valeurs singulières.
Il existe des analogues des factorisations SVD, QR, LU et Cholesky pour les quasimatrices et cmatrices ou matrices continues[10]. Une « quasi-matrice » est, comme une matrice, un schéma rectangulaire dont les éléments sont indexés, mais un indice discret est remplacé par un indice continu. De même, une « cmatrice » est continue dans les deux indices. Comme exemple de cmatrice, on peut penser au noyau d'un opérateur intégral. Ces terminologies proviennent des sources anglophones.
Ces factorisations sont basées sur les premiers travaux de Fredholm (1903), Hilbert (1904) et Schmidt (1907). Pour un compte rendu et une traduction en anglais des articles fondateurs, voir Stewart (2011).
↑Si la matrice A n'est pas carrée, la matrice U aura la même dimension (rectangulaire) que A. Ainsi, dire que U est triangulaire est incorrect, et le terme serait que U est la forme échelonnée réduite de A. À part cela, il n'y a a pas de différence entre la factorisation LU des matrices carrées et non carrées.
↑(en) R. Piziak et P. L. Odell, « Full Rank Factorization of Matrices », Mathematics Magazine, vol. 72, no 3, , p. 193 (DOI10.2307/2690882, JSTOR2690882)
↑ ab et c(en) Rajendra Bhatia, « The bipolar decomposition », Linear Algebra and Its Applications, vol. 439, no 10, , p. 3031–3037 (DOI10.1016/j.laa.2013.09.006)
↑(en) S.W. Drury, « Fischer determinantal inequalities and Highamʼs Conjecture », Linear Algebra and Its Applications, vol. 439, no 10, , p. 3129–3133 (DOI10.1016/j.laa.2013.08.031)
↑(en) Martin Idel, Sebastián Soto Gaona et Michael M. Wolf, « Perturbation bounds for Williamson's symplectic normal form », Linear Algebra and Its Applications, vol. 525, , p. 45–58 (DOI10.1016/j.laa.2017.03.013, arXiv1609.01338, S2CID119578994)
Choudhury et Horn, « A Complex Orthogonal-Symmetric Analog of the Polar Decomposition », SIAM Journal on Algebraic and Discrete Methods, vol. 8, no 2, , p. 219–225 (DOI10.1137/0608019)
Horn et Merino, « Contragredient equivalence: A canonical form and some applications », Linear Algebra and Its Applications, vol. 214, , p. 43–92 (DOI10.1016/0024-3795(93)00056-6)
GraphLab Bibliothèque de filtrage collaboratif GraphLab, implémentation parallèle à grande échelle de méthodes de décomposition matricielle (en C++) pour le multicœur.