-
Opérations sur les matrices
-
Addition de matrices
Soient deux matrices \((A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2\) de même taille.
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, p]\!],$$
$$(A + B)_{i,j} = a_{i,j} + b_{i,j} $$
Autrement dit, on additionne chaque élément de la matrice de gauche avec l'élément de même position de celle de droite :
$$
A + B = \begin{pmatrix}
a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, p} \\
a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2, p} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\
a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, p}
\end{pmatrix} + \begin{pmatrix}
b_{1,1} & b_{1,2} & b_{1,3} & \dots & b_{1, p} \\
b_{2,1} & b_{2,2} & b_{2,3} & \dots & b_{2, p} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\
b_{n,1} & b_{n,2} & b_{n,3} & \dots & b_{n, p}
\end{pmatrix}
$$
$$
A + B = \begin{pmatrix}
a_{1,1} + b_{1,1} & a_{1,2} + b_{1,2} & a_{1,3} + b_{1,3} & \dots & a_{1, p} + b_{1, p} \\
a_{2,1} + b_{2,1} & a_{2,2} + b_{2,2} & a_{2,3} + b_{2,3} & \dots & a_{2, p} + b_{2,p} \\
\hspace{2em} \vdots & \hspace{2em} \vdots & \hspace{2em} \vdots & \ddots & \hspace{2em} \vdots \\
a_{n,1} + b_{n,1} & a_{n,2} + b_{n,2} & a_{n,3} + b_{n,3} & \dots & a_{n, p} + b_{n,p}
\end{pmatrix}
$$
-
Produit matriciel
Soient deux matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\).
Pour multiplier deux matrices, on a besoin que le matrice de gauche ait le même nombre de colonnes que le nombre de lignes de la matrice de droite (ici \(p\)). Le résultat est une matrice \(AB \in \hspace{0.03em} \mathcal{M}_{n,q} (\mathbb{K})\), donc avec \(n\) lignes et \(q\) colonnes.
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, q]\!],$$
$$(A \times B)_{i,j} = \sum_{k = 1}^p a_{i,k} \times b_{k,j} $$
Par exemple :
$$
A \times B = \begin{pmatrix}
a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, p} \\
a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2, p} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\
a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, p}
\end{pmatrix} \times \begin{pmatrix}
b_{1,1} & b_{1,2} & b_{1,3} & \dots & b_{1, q} \\
b_{2,1} & b_{2,2} & b_{2,3} & \dots & b_{2, q} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\
b_{p,1} & b_{p,2} & b_{p,3} & \dots & b_{p, q}
\end{pmatrix}
$$
$$
A \times B = \begin{pmatrix}
\Bigl[a_{1,1} b_{1,1} + a_{1,2} b_{2,1} \ + \ ... \ + \ a_{1,p} b_{p,1} \Bigr]
& \Bigl[a_{1,1} b_{1,2} + a_{1,2} b_{2,2} \ + \ ... \ + \ a_{1,p} b_{p,2}\Bigr]
& \hspace{1em} \dots \dots \dots \hspace{1em}
& \Bigl[a_{1,1} b_{1,q} + a_{1,2} b_{2,q} \ + \ ... \ + \ a_{1,p} b_{p,q}\Bigr]
\\
\Bigl[a_{2,1} b_{1,1} + a_{2,2} b_{2,1} \ + \ ... \ + \ a_{2,p} b_{p,1}\Bigr]
& \Bigl[a_{2,1} b_{1,2} + a_{2,2} b_{2,2} \ + \ ... \ + \ a_{2,p} b_{p,2}\Bigr]
& \hspace{1em} \dots \dots \dots \hspace{1em}
& \Bigl[a_{2,1} b_{1,q} + a_{2,2} b_{2,q} \ + \ ... \ + \ a_{2,p} b_{p,q}\Bigr]
\\
\hspace{8em} \vdots & \hspace{8em} \vdots & \hspace{1em} \ddots & \hspace{8em} \vdots
\\
\hspace{8em} \vdots & \hspace{8em} \vdots & \hspace{1em} \ddots & \hspace{8em} \vdots
\\
\Bigl[a_{n,1} b_{1,1} + a_{n,2} b_{2,1} \ + \ ... \ + \ a_{n,p} b_{p,1}\Bigr]
& \Bigl[a_{n,1} b_{1,2} + a_{2,2} b_{2,2} \ + \ ... \ + \ a_{n,p} b_{p,2}\Bigr]
& \hspace{1em} \dots \dots \dots \hspace{1em}
& \Bigl[a_{n,1} b_{1,q} + a_{n,2} b_{2,q} \ + \ ... \ + \ a_{n,p} b_{p,q}\Bigr]
\end{pmatrix}
$$
Attention, de manière générale le produit matriciel n'est pas commutatif : \( (A \times B) \neq (B \times A) \).
-
Multiplication d'une matrice par un scalaire \(\lambda\)
Soit une matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\).
Lorsque l'on multiplie une matrice par un scalaire, cela affecte tous ses éléments.
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, p]\!],$$
$$(\lambda A)_{i,j} = \lambda \ a_{i,j} $$
Par exemple :
$$
A = \begin{pmatrix}
a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, p} \\
a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2, p} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\
a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, p}
\end{pmatrix}
$$
$$
\lambda A = \begin{pmatrix}
\lambda \ a_{1,1} & \lambda \ a_{1,2} & \lambda \ a_{1,3} & \dots & \lambda \ a_{1, p} \\
\lambda \ a_{2,1} & \lambda \ a_{2,2} & \lambda \ a_{2,3} & \dots & \lambda \ a_{2, p} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\
\lambda \ a_{n,1} & \lambda \ a_{n,2} & \lambda \ a_{n,3} & \dots & \lambda \ a_{n, p}
\end{pmatrix}
$$
-
Combinaison linéaire de matrices
Soient deux matrices \((A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2\) de même taille et \((\lambda, \mu) \in \hspace{0.04em} \mathbb{R}^2\).
Avec les propriétés précédentes d'addition et de multiplication par un scalaire, on peut créer des combinaisons linéaires de matrices et alors :
$$(\lambda A + \mu B)_{i,j} = \lambda \ a_{i,j} + \mu \ b_{i,j} $$
-
Transposition d'une matrice
Soit la matrice carrée \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) de taille \(n\).
La transposition d'une matrice consiste à inverser les indices de lignes et de colonnes de chaque élément. On note \(A^T\) (ou parfois \(^t A\)) la transposée de la matrice \(A\).
$$ \forall (i, j) \in [\![1, n]\!]^2,$$
$$ \left(A^T \right)_{i,j} \hspace{0.03em} = a_{j,i} $$
Par exemple :
$$
A = \begin{pmatrix}
a_{1,1} & \textcolor{#8A5757}{a_{1,2}} & \textcolor{#8A5757}{a_{1,3}} & \textcolor{#8A5757}{\dots} & \textcolor{#8A5757}{a_{1, n}} \\
\textcolor{#58814B}{a_{2,1}} & a_{2,2} & \textcolor{#8A5757}{a_{2,3}} & \textcolor{#8A5757}{\dots} & \textcolor{#8A5757}{a_{2, n}} \\
\textcolor{#58814B}{a_{3,1}} & \textcolor{#58814B}{a_{3,2}} & a_{3,3} & \textcolor{#8A5757}{\dots} & \textcolor{#8A5757}{a_{3, n}} \\
\hspace{1em} \textcolor{#58814B}{\vdots} & \hspace{1em} \textcolor{#58814B}{\vdots} & \hspace{1em} \textcolor{#58814B}{\vdots} & \ddots & \hspace{1em} \textcolor{#8A5757}{\vdots} \\
\textcolor{#58814B}{a_{n,1}} & \textcolor{#58814B}{a_{n,2}} & \textcolor{#58814B}{a_{n,3}} & \textcolor{#58814B}{\dots} & a_{n, n} \\
\end{pmatrix}
$$
Alors, sa transposée est :
$$
A^T = \begin{pmatrix}
a_{1,1} & \textcolor{#58814B}{a_{2,1}} & \textcolor{#58814B}{a_{3,1}} & \textcolor{#58814B}{\dots} & \textcolor{#58814B}{a_{n, 1}} \\
\textcolor{#8A5757}{a_{1,2}} & a_{2,2} & \textcolor{#58814B}{a_{3,2}} & \textcolor{#58814B}{\dots} & \textcolor{#58814B}{a_{n, 2}} \\
\textcolor{#8A5757}{a_{1,3}} & \textcolor{#8A5757}{a_{2,3}} & a_{3,3} & \textcolor{#58814B}{\dots} & \textcolor{#58814B}{a_{n, 3}} \\
\hspace{0.8em} \textcolor{#8A5757}{\vdots} & \hspace{0.8em} \textcolor{#8A5757}{\vdots} & \hspace{0.8em} \textcolor{#8A5757}{\vdots} & \ddots & \hspace{0.8em} \textcolor{#58814B}{\vdots} \\
\textcolor{#8A5757}{a_{1,n}} & \textcolor{#8A5757}{a_{2,n}} & \textcolor{#8A5757}{a_{3,n}} & \textcolor{#8A5757}{\dots} & a_{n, n} \\
\end{pmatrix}
$$
Seule la diagonale reste intacte, car si \(i = j\), alors \(a_{i,j} = a_{j,i}\).
-
Inversion d'une matrice
Soit une matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\).
L'inverse de la matrice \(A\) est la matrice notée \(A^{-1}\) et de même taille, telle que : \(A A^{-1} = I_n\).
Pour vérifier si une matrice est inversible, on doit calculer son déterminant, et :
$$ A \text{ est inversible } \Longleftrightarrow det(A) \neq 0 $$
-
Comatrice
Soit la matrice carrée \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) de taille \(n\).
La comatrice de la matrice \(A\) est la matrice notée \(com(A)\), telle que :
$$ \forall (i, j) \in [\![1, n]\!]^2,$$
$$ com(A)_{i,j} \hspace{0.03em} = C_{i,j} $$
$$
\text{où } \ \left \{ \begin{gather*}
C_{i,j} : \text{cofacteurs de l'élément } a_{i, j} \\
M_{i, j} : \text{mineure de l'élément } a_{i, j}
\end{gather*} \right \}
$$
\(C_{i, j}\) : cofacteurs de l'élément \(a_{i, j}\)
$$ C_{i,j} = (-1)^{i + j} \times det(M_{i, j}) $$
\(M_{i, j}\) : mineure de l'élément \(a_{i, j}\)
La mineure de \(a_{i, j}\) est la sous-matrice de \(A\) privée de la ligne \(i\) et de la colonne \(j\).
Par exemple, à partir de la matrice \(A\) suivante, la mineure \(\textcolor{#6F79AB}{M_{1,1}}\) apparaît en bleu :
$$
A = \begin{pmatrix}
a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, p} \\
a_{2,1} & \textcolor{#6F79AB}{a_{2,2}} & \textcolor{#6F79AB}{a_{2,3}} & \dots & \textcolor{#6F79AB}{a_{2, p}} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \textcolor{#6F79AB}{\vdots} & \hspace{0.5em} \textcolor{#6F79AB}{\vdots} & \textcolor{#6F79AB}{\ddots} & \hspace{0.5em} \textcolor{#6F79AB}{\vdots} \\
a_{n,1} & \textcolor{#6F79AB}{a_{n,2}} & \textcolor{#6F79AB}{a_{n,3}} & \dots & \textcolor{#6F79AB}{a_{n, p}}
\end{pmatrix}
$$
Soit,
$$
\textcolor{#6F79AB}{
M_{1,1} = \begin{pmatrix}
a_{2,2} & a_{2,3} & \dots & a_{2, p} \\
\vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \textcolor{#6F79AB}{\vdots} \\
a_{n,2} & a_{n,3} & \dots & a_{n, p}
\end{pmatrix}
}
$$
Par exemple, à partir de la matrice \(A\) suivante :
$$
A = \begin{pmatrix}
a_{1,1} & a_{1,2} & a_{1,3} \\
a_{2,1} & a_{2,2} & a_{2,3} \\
a_{3,1} & a_{3,2} & a_{3,3}
\end{pmatrix}
$$
Sa comatrice vaut :
$$
com(A) = \begin{pmatrix}
\textcolor{#58814B}{+}\begin{vmatrix}
a_{2,2} & a_{2,3} \\
a_{3,2} & a_{3,3}
\end{vmatrix}
&
\textcolor{#8A5757}{-}\begin{vmatrix}
a_{2,1} & a_{2,3} \\
a_{3,1} & a_{3,3}
\end{vmatrix}
&
\textcolor{#58814B}{+}\begin{vmatrix}
a_{2,1} & a_{2,2} \\
a_{3,1} & a_{3,2}
\end{vmatrix}
\\
\textcolor{#8A5757}{-}\begin{vmatrix}
a_{1,2} & a_{1,3} \\
a_{3,2} & a_{3,3}
\end{vmatrix}
&
\textcolor{#58814B}{+}\begin{vmatrix}
a_{1,1} & a_{1,3} \\
a_{3,1} & a_{3,3}
\end{vmatrix}
&
\textcolor{#8A5757}{-}\begin{vmatrix}
a_{1,1} & a_{1,2} \\
a_{3,1} & a_{3,2}
\end{vmatrix}
\\
\textcolor{#58814B}{+}\begin{vmatrix}
a_{1,2} & a_{1,3} \\
a_{2,2} & a_{2,3}
\end{vmatrix}
&
\textcolor{#8A5757}{-}\begin{vmatrix}
a_{1,1} & a_{1,3} \\
a_{2,1} & a_{2,3}
\end{vmatrix}
&
\textcolor{#58814B}{+}\begin{vmatrix}
a_{1,1} & a_{1,2} \\
a_{2,1} & a_{2,2}
\end{vmatrix}
\end{pmatrix}
$$
-
Écriture matricielle d'un système d'équations linéaires
Un système d'équations linéaires \( (S)\), où les inconnues sont les variables \(x_{i,j}\), peut s'écrire sous forme de système de produit matriciel :
$$ (S) \enspace \left \{ \begin{gather*}
a_1 x_{1,1} + a_2 x_{1,2} + a_3 x_{1,3} + \hspace{0.1em}... \hspace{0.1em}+ a_n x_{1,p} = b_1 \\
a_1 x_{2,1} + a_2 x_{2,2} + a_3 x_{2,3} + \hspace{0.1em}... \hspace{0.1em}+ a_n x_{2,p} = b_2 \\
........................ ............. \ = \ ..\\
a_1 x_{n,1} + a_2 x_{n,2} + a_3 x_{n,3} + \hspace{0.1em}... \hspace{0.1em}+ a_n x_{n,p} = b_n \\
\end{gather*} \right \}
$$
$$ \Longleftrightarrow$$
$$
\underbrace{
\begin{pmatrix}
x_{1,1} & x_{1,2} & x_{1,3} & \dots & x_{1, p} \\
x_{2,1} & x_{2,2} & x_{2,3} & \dots & x_{2, p} \\
\hspace{0.8em} \vdots & \hspace{0.8em} \vdots & \hspace{0.8em} \vdots & \ddots & \hspace{0.8em} \vdots \\
x_{n,1} & x_{n,2} & x_{n,3} & \dots & x_{n, p} \\
\end{pmatrix}
} _\text{X}
\times
\underbrace{
\begin{pmatrix}
a_1 \\
a_2 \\
\hspace{0.3em}\vdots \\
a_n
\end{pmatrix}
} _\text{A}
=
\underbrace{
\begin{pmatrix}
b_1 \\
b_2 \\
\hspace{0.3em}\vdots \\
b_n
\end{pmatrix}
} _\text{B} \ \Longleftrightarrow \ MA = B, \ \text{avec} \enspace
\left \{ \begin{gather*}
X \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) \\
A \in \hspace{0.03em} \mathcal{M}_{1,p} (\mathbb{K}) \\
B \in \hspace{0.03em} \mathcal{M}_{1,p} (\mathbb{K})
\end{gather*} \right \}
$$
-
Trace d'une matrice
Soit la matrice carrée \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) de taille \(n\).
On appelle la trace d'une matrice la somme des éléments diagonaux :
$$ A = \begin{pmatrix}
\textcolor{#6F79AB}{a_{1,1}} & a_{1,2} & a_{1,3} & \dots & a_{1,n} \\
a_{2,1} & \textcolor{#6F79AB}{a_{2,2}} & a_{2,3} & \dots & a_{2,n} \\
a_{3,1} & a_{3,2} & \textcolor{#6F79AB}{a_{3,3}} & \dots & a_{3,n} \\
\hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#6F79AB}{\ddots} & \hspace{0.1em} \vdots \\
a_{n,1} & a_{n,2} & a_{n,3} & \dots & \textcolor{#6F79AB}{a_{n,n}}
\end{pmatrix}
$$
$$Tr(A) = \sum_{k = 1}^n a_{k,k} = a_{1,1} + a_{2,2} \ + \ ... \ + a_{n,n}$$
-
Matrices spécifiques
-
Matrice diagonale
Une matrice diagonale est une matrice carrée où tous les éléments sont nuls en dehors de la diagonale principale :
$$
D_n = \begin{pmatrix}
\textcolor{#6F79AB}{d_{1,1}} & 0 & 0 & \dots & 0 \\
0 & \textcolor{#6F79AB}{d_{2,2}} & 0 & \dots & 0 \\
0 & 0 & \textcolor{#6F79AB}{d_{3,3}} & \dots & 0 \\
\hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#6F79AB}{\ddots} & \hspace{0.1em} \vdots \\
0 & 0 & 0 & \dots & \textcolor{#6F79AB}{d_{n,n}}
\end{pmatrix}
$$
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (i \neq j) \Longrightarrow d_{i,j} = 0$$
On note aussi la matrice diagonale \(D_n\) uniquement en fonction des éléments de sa diagonale : \(D_n = diag(\lambda_1, \lambda_2, \ ..., \lambda_n)\).
-
Matrice identité
La matrice identité \(I_n\) est définie par :
$$
I_n = \begin{pmatrix}
\textcolor{#6F79AB}{1} & 0 & 0 & \dots & 0 \\
0 & \textcolor{#6F79AB}{1} & 0 & \dots & 0 \\
0 & 0 & \textcolor{#6F79AB}{1} & \dots & 0 \\
\vdots & \vdots & \vdots & \textcolor{#6F79AB}{\ddots} & \vdots \\
0 & 0 & 0 & \dots & \textcolor{#6F79AB}{1} \\
\end{pmatrix}
$$
C'est la matrice carrée de taille \(n\) avec la valeur \(1\) sur sa diagonale principale, et \(0\) partout ailleurs. C'est un cas particulier de matrice diagonale. Par exemple,
$$
I_3 = \begin{pmatrix}
\textcolor{#6F79AB}{1} & 0 & 0 \\
0 & \textcolor{#6F79AB}{1} & 0 \\
0 & 0 & \textcolor{#6F79AB}{1}
\end{pmatrix}
$$
-
Matrice des uns
La matrice des uns \(J_n\) est la matrice carrée de taille \(n\) où tous les éléments valent \(1\):
$$
J_n = \begin{pmatrix}
1 & 1 & 1 & \dots & 1 \\
1 & 1 & 1 & \dots & 1 \\
1 & 1 & 1 & \dots & 1 \\
\vdots & \vdots & \vdots & \textcolor{#6F79AB}{\ddots} & \vdots \\
1 & 1 & 1 & \dots & 1 \\
\end{pmatrix}
$$
Par exemple,\(J_3\) vaut :
$$
J_3 = \begin{pmatrix}
1 & 1 & 1 \\
1 & 1 & 1 \\
1 & 1 & 1 \\
\end{pmatrix}
$$
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), \ \forall C \in \hspace{0.03em} \mathcal{M}_{q,r} (\mathbb{K}), $$
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall (B, C) \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})^2, $$
$$ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2, \ \forall C \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$
$$ \forall (\lambda, \mu) \in \hspace{0.04em} \mathbb{R}^2, \ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2, $$
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}), \ det(A) \neq 0, $$
$$ A \text{ est inversible } \Longrightarrow A^{-1} \text{ est inversible } \Longrightarrow (A^{-1})^{-1} = A $$
$$ A \text{ est inversible } \Longrightarrow A^{T} \text{ est inversible } \Longrightarrow \ \left(A^T \right)^{-1} = (A^{-1})^T$$
Par ailleurs, les expressions \((3)\) et \((7)\) se comportent de la même manière :
$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, \enspace \Biggl \{ \begin{gather*}
(A \times B)^T = B^T \times A^T \hspace{1em}\qquad (3) \\
\left(A \times B\right)^{-1} = B^{-1} \times A^{-1} \qquad (7) \end{gather*} $$
$$ \left((A \times B)^T \right)^{-1} = \hspace{0.03em} \left((A \times B)^{-1} \right)^T = \hspace{0.03em} \left(A^T\right)^{-1} \times \hspace{0.04em} \left(B^T\right)^{-1} = \hspace{0.03em} \left(A^{-1}\right)^T \times \hspace{0.04em} \left(B^{-1}\right)^T $$
$$ \forall (\lambda \mu) \in \hspace{0.04em} \mathbb{R}^2, \ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$
$$ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, \ \bigl(AB = BA \bigr), $$
Démonstrations
Soient trois matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\), \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\) et \(C \in \hspace{0.03em} \mathcal{M}_{q,r} (\mathbb{K})\).
-
Calcul de \((A \times B) \times C\)
Par définition, on a :
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, r]\!],$$
$$\Bigl( (A \times B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^q (ab)_{i,k} \times c_{k,j} $$
Or, le facteur \((ab)_{i,k}\) vaut lui :
$$ \forall (i, k) \in [\![1, n]\!] \times [\![1, q]\!],$$
$$ (ab)_{i,k} = \sum_{l = 1}^p a_{i,l} \times b_{l,k} $$
Alors on le remplace dans l'expression et :
$$\Bigl( (A \times B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^q \left[ \sum_{l = 1}^p a_{i,l} \times b_{l,k} \right] \times c_{k,j} $$
Comme le facteur \(c_{k,j}\) ne dépent pas de \(l\), il est considéré comme étant une constante et peut être intégré à la somme interne.
$$\Bigl( (A \times B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^q \sum_{l = 1}^p \Bigl[ a_{i,l} \times b_{l,k} \times c_{k,j} \Bigr] \qquad (1) $$
-
Calcul de \( A \times (B \times C)\)
Calculons maintenant le produit \(A \times (B \times C)\).
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, r]\!],$$
$$\Bigl( A \times (B \times C) \Bigr)_{i,j} = \ \sum_{k = 1}^p a_{i,k} \times (bc)_{k,j} $$
De la même mainière que précédemment, on remplace \((bc)_{k,j}\) par son expression et :
$$\Bigl( A \times (B \times C) \Bigr)_{i,j} = \ \sum_{k = 1}^p a_{i,k} \times \left[ \sum_{l = 1}^q b_{k,l} \times c_{l,j} \right] $$
$$\Bigl( A \times (B \times C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \sum_{l = 1}^q \Bigl[ a_{i,k} \times b_{k,l} \times c_{l,j} \Bigr] \qquad (2) $$
Dans les expressions \((1)\) et \((2)\), les variables \(k\) et \(l\) sont des variables muettes :
$$\Bigl( (A \times B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^q \sum_{l = 1}^p \Bigl[ a_{i,l} \times b_{l,k} \times c_{k,j} \Bigr] \qquad (1) $$
$$\Bigl( A \times (B \times C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \sum_{l = 1}^q \Bigl[ a_{i,k} \times b_{k,l} \times c_{l,j} \Bigr] \qquad (2) $$
Alors, elles peuvent donc être interverties, et à ce moment \((1)\) et \((2)\) sont égales et :
$$\Bigl( (A \times B) \times C \Bigr)_{i,j} = \Bigl( A \times (B \times C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \sum_{l = 1}^q \Bigl[ a_{i,l} \times b_{l,k} \times c_{k,j} \Bigr] $$
Soit finalement,
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), \ \forall C \in \hspace{0.03em} \mathcal{M}_{q,r} (\mathbb{K}), $$
$$ (A \times B) \times C = A \times (B \times C) $$
-
Distributivité à gauche
Soit une matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et deux matrices \((B, C) \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})^2\).
Avec la définition du produit matriciel, on a :
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, q]\!],$$
$$\Bigl( A \times (B + C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[ a_{i,k} \times (b + c)_{k,j}\Bigr] $$
$$\Bigl( A \times (B + C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[ a_{i,k} \times (b_{k,j} + c_{k,j})\Bigr]$$
$$\Bigl( A \times (B + C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[ a_{i,k} \times b_{k,j} + a_{i,k} \times c_{k,j} \Bigr]$$
$$\Bigl( A \times (B + C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[ a_{i,k} \times b_{k,j}\Bigr] + \sum_{k = 1}^p \Bigl[a_{i,k} \times c_{k,j}\Bigr] $$
Soit finalement,
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall (B, C) \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})^2, $$
$$ A \times (B + C) = A \times B + A \times C $$
-
Distributivité à droite
Soient deux matrices \((A, B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2 \) et une matrice \( C \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\).
De la même manière que plus haut, on a :
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, q]\!],$$
$$\Bigl( (A + B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[(a + b)_{i,k} \times c_{k,j}\Bigr] $$
$$\Bigl( (A + B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[(a_{i,k} + b_{i,k}) \times c_{k,j}\Bigr] $$
$$\Bigl( (A + B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[a_{i,k} \times c_{k,j} + b_{i,k} \times c_{k,j}\Bigr] $$
$$\Bigl( (A + B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[a_{i,k} \times c_{k,j}\Bigr] + \sum_{k = 1}^p \Bigl[ b_{i,k} \times c_{k,j}\Bigr] $$
Soit finalement,
$$ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2, \ \forall C \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$
$$ (A + B) \times C = A \times C + B \times C $$
Soient deux matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\) et \(\lambda \in \mathbb{R}\) un réel.
Avec la définition du produit matriciel, on a :
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, q]\!],$$
$$(\lambda A \times B)_{i,j} = \sum_{k = 1}^p \lambda a_{i,k} \times b_{k,j} = \lambda \sum_{k = 1}^p a_{i,k} \times b_{k,j} $$
De la même manière :
$$( A \times \lambda B)_{i,j} = \sum_{k = 1}^p a_{i,k} \times \lambda b_{k,j} = \lambda \sum_{k = 1}^p a_{i,k} \times b_{k,j} $$
Soit finalement,
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$
$$ (\lambda A) \times B = A \times (\lambda B) = \lambda (A \times B) $$
Soit une matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\).
-
Calcul de \(I_n \times A\)
Avec la définition du produit matriciel, on a :
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, p]\!],$$
$$(I_n \times A)_{i,j} = \sum_{k = 1}^n (I_n)_{i,k} \times a_{k,j} $$
Mais le facteur \((I_n)_{i,k}\) vaut :
$$ (I_n)_{i,k} = \Biggl \{ \begin{gather*}
1, \ si \ (i = k) \\
0 \ \text{sinon} \end{gather*} $$
Alors,
$$(I_n \times A)_{i,j} = a_{i,j} = (A)_{i,j} $$
C'est la matrice de départ inchangée.
-
Calcul de \(A \times I_p\)
Idem, de l'autre côté :
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, p]\!],$$
$$(A \times I_p)_{i,j} = \sum_{k = 1}^p a_{i,k} \times (I_p)_{k,j} $$
De la même manière et pour tout \((i,j)\), dans cette somme de produits lorque \((k = j)\), on obtient \(a_{i,j}\) puisque tous les autres termes valent \(0\) et par conséquent :
$$(A \times I_p)_{i,j} = a_{i,j} = (A)_{i,j} $$
Et finalement,
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}),$$
$$ I_n \times A = A \times I_p = A $$
-
Produit de deux matrices diagonales
Soient deux matrices diagonales \(\Bigl[ D_1 = diag(\lambda_1, \lambda_2, \ ..., \lambda_n), \ D_2 = diag(\mu_1, \mu_2, \ ..., \mu_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2 \).
Avec la définition du produit matriciel, on a :
$$ \forall (i, j) \in [\![1, n]\!]^2,$$
$$(D_1 \times D_2)_{i,j} = \sum_{k = 1}^n (d_1)_{i,k} \times (d_2)_{k,j} $$
En reprenant la définition d'une matrice diagonale, dans chacun de produits internes de ces sommes :
$$ \Biggl \{ \begin{gather*}
\forall (i, k) \in [\![1, n]\!]^2, \ (i \neq k) \Longrightarrow (d_1)_{i,k} = 0 \\
\forall (k, j) \in [\![1, n]\!]^2, \ (k \neq j) \Longrightarrow (d_2)_{k,j} = 0 \end{gather*} $$
Alors, pour tout \(k\), le produit \( \Bigl[ (d_1)_{i,k} \times (d_2)_{k,j} \Bigr] \neq 0 \) seulement si :
$$ \Bigl[ (i = k) \land (k = j) \Bigr] \Longleftrightarrow (i = k = j) $$
On a alors :
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (D_1 \times D_2)_{i,j} = \Biggl \{ \begin{gather*}
(d_1)_{i,j} \times (d_2)_{i,j}, \ si \ (i = j) \\
0 \ \text{sinon} \end{gather*} $$
Soit,
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (D_1 \times D_2)_{i,j} = \Biggl \{ \begin{gather*}
(d_1)_{k,k} \times (d_2)_{k,k} = \lambda_k \ \mu_k, \ si \ (i = j = k) \\
0 \ \text{sinon} \end{gather*} $$
$$ (D_1 \times D_2) = \begin{pmatrix}
\textcolor{#6F79AB}{\lambda_1 \ \mu_1} & 0 & 0 & \dots & 0 \\
0 & \textcolor{#6F79AB}{\lambda_2 \ \mu_2} & 0 & \dots & 0 \\
0 & 0 & \textcolor{#6F79AB}{\lambda_3 \ \mu_3} & \dots & 0 \\
\hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#6F79AB}{\ddots} & \hspace{0.1em} \vdots \\
0 & 0 & 0 & \dots & \textcolor{#6F79AB}{\lambda_n \ \mu_n}
\end{pmatrix} $$
De la même manière, si l'on effectue le produit dans l'autre sens :
$$ \forall (i, j) \in [\![1, n]\!]^2,$$
$$(D_2 \times D_1)_{i,j} = \sum_{k = 1}^n (d_2)_{i,k} \times (d_1)_{k,j} $$
Et par le même raisonnement, on obtient aussi que :
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (D_1 \times D_2)_{i,j} = \Biggl \{ \begin{gather*}
(d_2)_{k,k} \times (d_1)_{k,k} = \mu_k \ \lambda_k, \ si \ (i = j = k) \\
0 \ \text{sinon} \end{gather*} $$
Les produits de nombres sur le corps \(\mathbb{K}\) étant commutatif, les deux résultats des produits \((D_1 \times D_2)\) et \((D_2 \times D_1)\) sont égaux.
Et finalement,
$$ \forall \Bigl[ D_1 = diag(\lambda_1, \lambda_2, \ ..., \lambda_n), \ D_2 = diag(\mu_1, \mu_2, \ ..., \mu_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, $$
$$ D_1 \times D_2 = D_2 \times D_1 = diag \left(\lambda_1 \mu_1, \lambda_2 \mu_2, \ ..., \lambda_n \mu_n \right) $$
-
Puissance de matrice diagonale
Soit la matrice diagonale \(\Bigl[ D = diag(\lambda_1, \lambda_2, \ ..., \lambda_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}) \).
En suivant le même raisonnement que précédemment, par une récurrence directe il est évident que :
$$ \forall \Bigl[ D = diag(\lambda_1, \lambda_2, \ ..., \lambda_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}), $$
$$ D^m = diag \left(\lambda_1^m, \lambda_2^m, \ ..., \lambda_n^m \right) $$
Soit \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) une matrice carrée de taille \(n\).
-
Calcul de \( \bigl[A \times com(A)^T \bigr]\)
Si l'on effectue le produit \(A \times com(A)^T\), on a :
$$ \forall (i, j) \in [\![1, n]\!]^2,$$
$$ \left(A \times com(A)^T \right)_{i,j} = \sum_{k = 1}^n a_{i,k} \times C_{j,k} $$
-
\( \alpha) \) si \( (i = j) \)
Dans le cas où \( (i = j) \), alors :
$$ (i = j) \Longrightarrow \left[ \left(A \times com(A)^T \right)_{i,j} = \sum_{k = 1}^n a_{i,k} \times C_{i,k} \right] $$
C'est la définition du déterminant de \(A_{i,j}\) selon la ligne \(i\). Donc :
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (i = j), $$
$$ \left(A \times com(A)^T \right)_{i,j} = det(A) $$
La matrice produit vaudra alors \(det(A)\) sur toute la diagonale.
-
\( \beta) \) si \( (i \neq j) \)
Dans le cas où \( (i \neq j) \), alors par défaut :
$$ (i \neq j) \Longrightarrow \left[ \left(A \times com(A)^T \right)_{i,j} = \sum_{k = 1}^n a_{i,k} \times C_{j,k} \right] \qquad (3) $$
Imaginons alors une nouvelle matrice \(B\), copie de \(A\), et telle que la ligne \(j\) soit remplacée par la ligne \(i\).
$$ \forall (i, j) \in [\![1, n]\!]^2,$$
$$
A = \begin{pmatrix}
a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, n} \\
a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2,n} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \vdots & \hspace{0.5em} \vdots \\
\textcolor{#58814B}{a_{i,1}} & \textcolor{#58814B}{a_{i,2}} & \textcolor{#58814B}{a_{i,3}} & \textcolor{#58814B}{\dots} & \textcolor{#58814B}{a_{i, n}} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \vdots & \vdots \\
\textcolor{#8A5757}{a_{j,1}} & \textcolor{#8A5757}{a_{j,2}} & \textcolor{#8A5757}{a_{j,3}} & \textcolor{#8A5757}{\vdots} & \textcolor{#8A5757}{a_{j, n}} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \vdots \\
a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, n}
\end{pmatrix}
$$
$$
B = \begin{pmatrix}
a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, n} \\
a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2,n} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \vdots & \hspace{0.5em} \vdots \\
\textcolor{#58814B}{a_{i,1}} & \textcolor{#58814B}{a_{i,2}} & \textcolor{#58814B}{a_{i,3}} & \textcolor{#58814B}{\dots} & \textcolor{#58814B}{a_{i, n}} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \vdots & \vdots \\
\textcolor{#58814B}{a_{i,1}} & \textcolor{#58814B}{a_{i,2}} & \textcolor{#58814B}{a_{i,3}} & \textcolor{#58814B}{\dots} & \textcolor{#58814B}{a_{i, n}} \\
\hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \vdots \\
a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, n}
\end{pmatrix}
$$
Le but est de calculer le déterminant de la matrice \(B\) sur la ligne \(i\), où pour tout \(k\), les éléments \(\textcolor{#58814B}{a_{i,k}}\) viennent remplacer les éléments \(\textcolor{#8A5757}{a_{j,k}}\).
Ainsi, si l'on calcule \(det(B)\) sur la ligne \(i\), on obtient :
$$ det(B) = \sum_{k = 1}^n a_{i,k} \times C_{j,k} $$
Or, lorsque l'on calcule le déterminant d'une matrice avec deux lignes équivalentes, celui s'annule.
Ce qui est évidemment notre car, par conséquent :
$$ det(B) = 0 \Longrightarrow \sum_{k = 1}^n a_{i,k} \times C_{j,k} = 0 \qquad (4) $$
Alors, mettant en perspective les deux expressions \((3)\) et \((4)\) :
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (i \neq j), $$
Cela signifie que :
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (i \neq j), $$
$$ \left(A \times com(A)^T \right)_{i,j} = 0 $$
Notre matrice produit vaudra alors zéro partout ailleurs.
$$
A \times com(A)^T = \begin{pmatrix}
\textcolor{#6F79AB}{det(A)} & 0 & 0 & \dots & 0 \\
0 & \textcolor{#6F79AB}{det(A)} & 0 & \dots & 0 \\
0 & 0 & \textcolor{#6F79AB}{det(A)} & \dots & 0 \\
\hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#6F79AB}{\ddots} & \hspace{0.1em} \vdots \\
0 & 0 & 0 & \dots & \textcolor{#6F79AB}{det(A)}
\end{pmatrix}
$$
Soit finalement que :
$$ A \times com(A)^T = det(A) \times I_n $$
-
Calcul de \( \bigl[com(A)^T \times A\bigr]\)
Si l'on commute maintenant les facteurs du produit précédent tel que :
$$ \left(com(A)^T \times A \right)_{i,j} = \sum_{k = 1}^n C_{k,i} \times a_{k,j} $$
Alors, de la même manière :
-
\( \alpha) \) si \( (i = j) \)
Dans le cas où \( (i = j) \), alors :
$$ (i = j) \Longrightarrow \left[ \left(com(A)^T \times A \right)_{i,j} = \sum_{k = 1}^n C_{k,i} \times a_{k,i} \right] $$
C'est à présent la définition du déterminant de \(A_{i,j}\), mais selon la colonne \(i\). Donc :
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (i = j), $$
$$ \left(com(A)^T \times A \right)_{i,j} = det(A) $$
De même que plus haut, la matrice produit vaudra \(det(A)\) sur toute la diagonale.
-
\( \beta) \) si \( (i \neq j) \)
De même, dans le cas où \( (i \neq j) \), alors par défaut :
$$ (i \neq j) \Longrightarrow \left[ \left(com(A)^T \times A \right)_{i,j} = \sum_{k = 1}^n C_{k,i} \times a_{k,j} \right] \qquad (3^*) $$
Et de la même manière que précédemment, on va cette fois remplacer la colonne \(j\) par la colonne \(i\) dans notre nouvelle matrice \(B'\), et ainsi calculer \(det(B')\) sur la ligne \(k\) :
$$ det(B') = 0 \Longrightarrow \sum_{k = 1}^n C_{k,i} \times a_{k,j} = 0 \qquad (4^*) $$
Or,
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (i \neq j), $$
Cela signifie que :
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (i \neq j), $$
$$ \left(com(A)^T \times A \right)_{i,j} = 0 $$
De même que plus haut, la matrice produit vaudra zéro partout ailleurs.
$$
com(A)^T \times A = \begin{pmatrix}
\textcolor{#6F79AB}{det(A)} & 0 & 0 & \dots & 0 \\
0 & \textcolor{#6F79AB}{det(A)} & 0 & \dots & 0 \\
0 & 0 & \textcolor{#6F79AB}{det(A)} & \dots & 0 \\
\hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#6F79AB}{\ddots} & \hspace{0.1em} \vdots \\
0 & 0 & 0 & \dots & \textcolor{#6F79AB}{det(A)}
\end{pmatrix}
$$
Soit finalement que :
$$ com(A)^T \times A = det(A) \times I_n $$
Finalement, on a prouvé que :
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$
$$ A \times com(A)^T = com(A)^T \times A = det(A) \times I_n $$
$$(5)$$
Soient deux matrices \((A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2\) de même taille et \((\lambda, \mu) \in \hspace{0.04em} \mathbb{R}^2\) deux nombres réels.
On a vu avec la multiplication d'une matrice par un scalaire que tous ces indices étaient affectés.
De même, la somme deux matrices (de même taille) est l'addition de chacun des éléments de mêmes indices \((i,j)\) ensemble.
Alors grâce à des deux propriétés, on peut prendre une combinaison linéaire de matrices :
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, p]\!],$$
$$(\lambda A + \mu B)_{i,j} = \lambda \ a_{i,j} + \mu \ b_{i,j}$$
En prenant maintenant la transposée, cela inverse tous les indices \(i\) et \(j\) :
$$(\lambda A + \mu B)^T_{i,j} = \lambda \ a_{j,i} + \mu \ b_{j,i}$$
Et finalement,
$$ \forall (\lambda, \mu) \in \hspace{0.04em} \mathbb{R}^2, \ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2, $$
$$ (\lambda A + \mu B)^T = \lambda A^T + \mu B^T $$
Soient deux matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\).
Avec la définition du produit matriciel, on a :
$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, q]\!],$$
$$(A \times B)_{i,j} = \sum_{k = 1}^p a_{i,k} \times b_{k,j} $$
En prenant maintenant la transposée, cela inverse tous les indices \(i\) et \(j\) :
$$ \forall (i, j) \in [\![1, q]\!] \times [\![1, n]\!],$$
$$(A \times B)^T_{i,j} = \sum_{k = 1}^p a_{j,k} \times b_{k,i} $$
Or, le produit des transposées en inversant l'ordre vaut la même chose :
$$(B^T \times A^T)_{i,j} = \sum_{k = 1}^p b_{k,i} \times a_{j,k} $$
Alors,
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$
$$ (A \times B)^T = B^T \times A^T $$
$$(6)$$
En reprenant la formule \((5)\) :
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$
$$ A \times com(A)^T = com(A)^T \times A = det(A) \times I_n \qquad (5) $$
On a, en prenant uniquement la partie de droite de l'expression :
$$ com(A)^T \times A = det(A) \times I_n $$
En multipliant maintenant les deux côtés par \(A^{-1}\) :
$$ com(A)^T \times A \textcolor{#8A5757}{\times A^{-1}} = det(A) \times I_n \textcolor{#8A5757}{\times A^{-1}} $$
$$ com(A)^T = det(A) \times I_n \times A^{-1} $$
Enfin, en divisant chaque membre par \(det(A)\), on obtient :
$$ \textcolor{#8A5757}{\frac{1}{det(A)}} \times com(A)^T = \frac{det(A)}{\textcolor{#8A5757}{det(A)}} \times I_n \times A^{-1} $$
Soit finalement,
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}), \ det(A) \neq 0, $$
$$ A^{-1} = \frac{1}{det(A)} \times com(A)^T $$
Soit \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) une matrice carrée de taille \(n\).
La relation qui lie une matrice inversible à son déterminant est la suivante :
$$ A \text{ est inversible } \Longleftrightarrow det(A) \neq 0 $$
Mais on a aussi la relation suivante :
$$ det(A^{-1}) = det(A)^{-1}$$
Alors, si \(A\) est inversible, alors \(A^{-1}\) l'est aussi. On a alors la relation suivante :
$$ A A^{-1} = I_n$$
Mais aussi :
$$ A^{-1} (A^{-1})^{-1} = I_n$$
En multipliant cette relation de chaque côté à gauche par \(A\), on a :
$$ \underbrace {A A^{-1}} _\text{ \(= \ I_n\)} \ (A^{-1})^{-1} = \ \underbrace {A I_n} _\text{ \(= \ A\)}$$
Soit finalement,
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}),$$
$$ A \text{ est inversible } \Longrightarrow A^{-1} \text{ est inversible } \Longrightarrow (A^{-1})^{-1} = A $$
Soit \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) une matrice carrée de taille \(n\).
La matrice \(A\) est inversible si et seulement si \(det(A) \neq 0\). Mais les matrices \(A\) et \(A^T\) ont le même déterminant :
$$ det(A) = det(A^T)$$
Alors, si \(A\) est inversible, alors \(A^T\) l'est aussi.
Par ailleurs, on a vu plus que :
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$
$$ (A \times B)^T = B^T \times A^T $$
Alors, dans notre cas :
$$ \left(A \times A^{-1}\right)^T = \ \left(A^{-1} \right)^T \times \ A^T $$
$$ I_n^T = \ \left(A^{-1} \right)^T \times \ A^T $$
Or, la matrice transposée de la matrice identité est invariante. Alors :
$$ I_n = \ \left(A^{-1} \right)^T \times \ A^T $$
En multipliant chaque côté à droite par \(\left(A^T \right)^{-1}\), on a :
$$ I_n \times \left(A^T \right)^{-1} = \ \left(A^{-1} \right)^T \times \ \underbrace { A^T \left(A^T \right)^{-1}} _\text{ \(= \ I_n\)} \ $$
Et finalement,
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}),$$
$$ A \text{ est inversible } \Longrightarrow A^{T} \text{ est inversible } \Longrightarrow \ \left(A^T \right)^{-1} = (A^{-1})^T$$
Soit \((A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) deux matrices carrées de même taille \(n\).
Si les deux matrices \(A\) et \(B\) sont inversibles, alors :
$$ A \text{ et } B \text{ sont inversibles } \Longleftrightarrow \Biggl \{ \begin{gather*}
det(A) \neq 0 \\
det(B) \neq 0 \end{gather*} \qquad(7) $$
Or, par les propriétés du déterminant, on sait que:
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$
$$ det(A \times B) = det(A) \times det(B) \qquad(8) $$
En combinant les expressions \((7)\) et \((8)\), on a :
$$ A \text{ et } B \text{ sont inversibles } \Longleftrightarrow det(A \times B) \neq 0$$
Alors, le produit \((A \times B)\) est lui aussi inversible et :
$$ (AB) \times \ \left(AB\right)^{-1} \hspace{0.01em} = I_n$$
En multipliant cette relation de chaque côté à gauche par \((B^{-1} A^{-1})\), on a :
$$ (B^{-1} A^{-1}) \times (AB) \times \hspace{0.01em} \left(AB\right)^{-1} \hspace{0.01em} = (B^{-1} A^{-1}) \times I_n $$
$$ B^{-1} \times (A^{-1} A) \times B \times \hspace{0.01em} \left(AB\right)^{-1} \hspace{0.01em} = B^{-1} A^{-1}$$
Par ailleurs, on a vu plus haut que :
$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}),$$
$$ A \text{ est inversible } \Longrightarrow A^{-1} \text{ est inversible } \Longrightarrow (A^{-1})^{-1} = A $$
$$ B^{-1} \times \ \underbrace{ \left(A^{-1} (A^{-1})^{-1}\right)} _\text{\(= \ I_n\)} \hspace{0.03em} \times B \times \hspace{0.03em} \left(AB\right)^{-1} = B^{-1} A^{-1}$$
$$ \underbrace{ \left(B^{-1} (B^{-1})^{-1}\right)} _\text{\(= \ I_n\)} \ \times \ \left(AB\right)^{-1} = B^{-1} A^{-1}$$
Soit finalement,
$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$
$$ A \text{ et } B \text{ sont inversibles } \Longrightarrow (A \times B) \text{ est inversible } \Longrightarrow \ \left(A \times B\right)^{-1} = B^{-1} \times A^{-1} $$
$$(9)$$
Les expressions \((6)\) et \((9)\) se comportent de la même manière :
$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, \enspace \Biggl \{ \begin{gather*}
(A \times B)^T = B^T \times A^T \hspace{1em}\qquad (6) \\
\left(A \times B\right)^{-1} = B^{-1} \times A^{-1} \qquad (9) \end{gather*} $$
Alors, l'ordre de transposition ou d'inversion n'a pas d'importance.
On en déduit que :
$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$
$$ \left((A \times B)^T \right)^{-1} = \hspace{0.03em} \left((A \times B)^{-1} \right)^T = \hspace{0.03em} \left(A^T\right)^{-1} \times \hspace{0.04em} \left(B^T\right)^{-1} = \hspace{0.03em} \left(A^{-1}\right)^T \times \hspace{0.04em} \left(B^{-1}\right)^T $$
Soit \((A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2\) deux matrices carrées de taille \(n\) et \((\lambda, \mu) \in \hspace{0.04em} \mathbb{R}^2\) deux nombres réels.
Par définition de la trace et par combinaison linéaire, on a :
$$Tr(\lambda A + \mu B) = \sum_{k = 1}^n (\lambda \ a + \mu \ b)_{k,k}$$
Alors, on a directement que :
$$Tr(\lambda A + \mu B) = \sum_{k = 1}^n \lambda \ a_{k,k} + \sum_{k = 1}^n b_{k,k} $$
Et finalement,
$$ \forall (\lambda \mu) \in \hspace{0.04em} \mathbb{R}^2, \ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$
$$ Tr(\lambda A + \mu B) = \lambda \ Tr(A) + \mu \ Tr(B) $$
Soit \((A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2\) deux matrices carrées de taille \(n\).
Par définition de la trace, on a :
$$Tr( A \times B) = \sum_{k = 1}^n (a \times b)_{k,k}$$
Soit, en remplaçant dans l'expression précédente :
$$Tr( A \times B) = \sum_{k = 1}^n \sum_{l = 1}^n \Bigl[ a_{k,l} \times b_{l,k} \Bigr] \qquad (10) $$
Les variables \(k\) et \(l\) étant des variables muettes, on peut les inverser :
$$Tr( A \times B) = \sum_{l = 1}^n \sum_{k = 1}^n \Bigl[ a_{l,k} \times b_{k,l} \Bigr] $$
Les produits de nombres étant commutatif sur le corps \(\mathbb{K}\), on peut écrire que :
$$Tr( A \times B) = \sum_{l = 1}^n \sum_{k = 1}^n \Bigl[ b_{k,l} \times a_{l,k} \Bigr] $$
Or, c'est la même chose que \(Tr(B \times A)\), si l'on reprend l'expression \((10)\) en inversant \(A\) et \(B\).
Et finalement,
$$ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$
$$ Tr(A \times B) = Tr(B \times A)$$
Soit \(J_n\) la matrice des uns de taille \(n\).
En démarrant de \((J_n)^2\) :
$$
(J_n)^2 =
\begin{pmatrix}
1 & 1 & 1 & \dots & 1 \\
1 & 1 & 1 & \dots & 1 \\
1 & 1 & 1 & \dots & 1 \\
\vdots & \vdots & \vdots & \textcolor{#6F79AB}{\ddots} & \vdots \\
1 & 1 & 1 & \dots & 1 \\
\end{pmatrix}
\begin{pmatrix}
1 & 1 & 1 & \dots & 1 \\
1 & 1 & 1 & \dots & 1 \\
1 & 1 & 1 & \dots & 1 \\
\vdots & \vdots & \vdots & \textcolor{#6F79AB}{\ddots} & \vdots \\
1 & 1 & 1 & \dots & 1 \\
\end{pmatrix}
$$
Alors, la matrice qui en résulte de même taille vaut \(n\) partout :
$$
(J_n)^2 =
\begin{pmatrix}
n & n & n & \dots & n \\
n & n & n & \dots & n \\
n & n & n & \dots & n \\
\vdots & \vdots & \vdots & \textcolor{#6F79AB}{\ddots} & \vdots \\
n & n & n & \dots & n \\
\end{pmatrix} = n.J_n
$$
Idem, si l'on prend maintenant le cube de \(J_n\), on a :
$$ (J_n)^3 = n.J_n \times J_n $$
$$ (J_n)^3 = n.(J_n)^2 $$
Or, on a vu juste avant que :
$$ (J_n)^2 = n.(J_n) $$
Alors,
$$ (J_n)^3 = n^2.J_n $$
Par conséquent, par une récurrence directe on peut facilement montrer que :
$$ \forall p \in \mathbb{N}, $$
$$ (J_n)^p = n^{p - 1}.J_n $$
Soit \((A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2\) deux matrices carrées de taille \(n\) et commutantes.
On sait que la distributivité s'applique sur les matrices. Alors :
$$ (A + B)^2 = A^2 + AB + BA + B^2 $$
De plus, dans notre cas les matrices \(A\) et \(B\) sont commutantes donc : \(\bigl(AB = BA \bigr)\).
Par conséquent, on a :
$$ (A + B)^2 = A^2 + 2AB + B^2 $$
Alors, on peut prouver par récurrence que les binôme de Newton et l'identité géométrique s'appliquent aussi dans ce cas précis.
$$ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, \ \bigl(AB = BA \bigr), $$