Espaces Préhilbertiens Réels

Espaces Préhilbertiens Réels

Un espace préhilbertien réel est un espace vectoriel réel muni d'un produit scalaire, permettant de définir des notions comme la longueur des vecteurs, l'angle entre eux et l'orthogonalité.

Formes Bilinéaires Symétriques

Une forme bilinéaire est une application \( f : E \times E \to \mathbb{R} \) définie sur un espace vectoriel \( E \) telle que :

  • \( f \) est linéaire par rapport à chaque variable, c’est-à-dire :
  • Pour tout \( u, v, w \in E \) et \( \lambda \in \mathbb{R} \), on a : \[ f(u + v, w) = f(u, w) + f(v, w), \quad f(\lambda u, w) = \lambda f(u, w). \] De même, pour la deuxième variable : \[ f(u, v + w) = f(u, v) + f(u, w), \quad f(u, \lambda v) = \lambda f(u, v). \]
  • \( f \) est dite symétrique si : \[ f(u, v) = f(v, u), \quad \forall u, v \in E. \]

Exemple : Dans \( \mathbb{R}^n \), une forme bilinéaire symétrique peut être définie à l’aide d’une matrice symétrique \( A \) comme suit :

\[ f(u, v) = u^T A v, \quad \text{où } u, v \in \mathbb{R}^n. \]

Représentation Matricielle

En dimension finie, toute forme bilinéaire symétrique peut être représentée par une matrice \( A \) symétrique. Les coordonnées des vecteurs \( u, v \) dans une base \( \{e_1, e_2, \dots, e_n\} \) permettent de calculer :

\[ f(u, v) = \begin{bmatrix} u_1 & u_2 & \dots & u_n \end{bmatrix} \begin{bmatrix} a_{11} & a_{12} & \dots & a_{1n} \\ a_{12} & a_{22} & \dots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{1n} & a_{2n} & \dots & a_{nn} \end{bmatrix} \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{bmatrix}. \]

Propriétés des Formes Bilinéaires Symétriques

  • La matrice associée à \( f \) est toujours symétrique (\( a_{ij} = a_{ji} \)).
  • Le rang de \( f \) correspond au rang de la matrice associée.
  • La diagonalisation de \( A \) permet d’obtenir une base dans laquelle \( f \) est représentée de façon plus simple (forme canonique).

Formes Quadratiques

Une forme quadratique sur un espace vectoriel \( E \) est une application \( Q : E \to \mathbb{R} \) telle que :

\[ Q(x) = f(x, x), \]

où \( f \) est une forme bilinéaire symétrique.

Exemples

  • Dans \( \mathbb{R}^2 \), une forme quadratique peut s’écrire comme : \[ Q(x, y) = ax^2 + bxy + cy^2, \] où \( a, b, c \in \mathbb{R} \).
  • Dans \( \mathbb{R}^3 \), une forme quadratique peut être : \[ Q(x, y, z) = ax^2 + by^2 + cz^2 + dxy + exz + fyz. \]

Matrice Associée

En dimension finie, une forme quadratique \( Q \) peut être associée à une matrice symétrique \( A \) telle que :

\[ Q(x) = x^T A x, \]

où \( x \) est un vecteur colonne contenant les coordonnées de \( x \) dans une base donnée.

Classification des Formes Quadratiques

Par diagonalisation de la matrice \( A \), une forme quadratique peut être simplifiée dans une base orthonormée. Le théorème d'inertie de Sylvester garantit que le nombre de coefficients positifs, négatifs et nuls dans la diagonale est invariant par changement de base.

Applications

  • Les formes quadratiques sont utilisées en géométrie pour caractériser les coniques et les quadriques.
  • En physique, elles permettent de représenter l’énergie potentielle d’un système mécanique ou électrique.
  • En optimisation, les formes quadratiques apparaissent dans les problèmes de programmation quadratique.

Orthogonalité

Dans un espace vectoriel muni d'une forme bilinéaire symétrique ou d'un produit scalaire, la notion d'orthogonalité permet de définir des relations géométriques entre les vecteurs.

Définition

Soit \( E \) un espace vectoriel et \( f : E \times E \to \mathbb{R} \) une forme bilinéaire symétrique (ou un produit scalaire). Deux vecteurs \( u, v \in E \) sont dits orthogonaux si :

\[ f(u, v) = 0. \]

On note souvent \( u \perp v \) pour indiquer cette relation.

Orthogonalité par rapport à un Sous-espace

Si \( F \) est un sous-espace de \( E \), on définit l'orthogonal de \( F \) comme l'ensemble des vecteurs \( v \in E \) tels que :

\[ v \perp u \quad \forall u \in F. \]

Cet ensemble est noté \( F^\perp \) et il est lui-même un sous-espace de \( E \).

Propriétés

  • Dans un espace euclidien, la décomposition orthogonale permet d'écrire tout vecteur \( v \in E \) comme la somme d'un vecteur dans \( F \) et d'un vecteur dans \( F^\perp \).
  • L'orthogonalité est utilisée pour construire des bases orthogonales et simplifier les calculs dans les espaces vectoriels.

Rang et Noyau

Les notions de rang et de noyau sont fondamentales dans l'étude des formes bilinéaires et des applications linéaires.

Définition du Rang

Le rang d'une forme bilinéaire \( f : E \times E \to \mathbb{R} \) est la dimension du sous-espace vectoriel engendré par les vecteurs de la forme :

\[ f(u, -), \quad \text{où } u \in E. \]

Dans une base donnée, le rang correspond au rang de la matrice associée à \( f \).

Définition du Noyau

Le noyau de la forme bilinéaire \( f \) est l'ensemble des vecteurs \( u \in E \) tels que :

\[ f(u, v) = 0, \quad \forall v \in E. \]

Le noyau est un sous-espace vectoriel de \( E \). On note souvent :

\[ \ker(f) = \{ u \in E \mid f(u, v) = 0 \text{ pour tout } v \in E \}. \]

Relation entre Rang et Noyau

Dans un espace vectoriel de dimension finie \( n \), on a la relation suivante :

\[ \dim(\ker(f)) + \text{rang}(f) = n. \]

Ceci est une conséquence directe du théorème du rang.

Vecteurs Isotropes

Les vecteurs isotropes sont des vecteurs particuliers dans un espace vectoriel muni d'une forme bilinéaire symétrique.

Définition

Un vecteur \( v \in E \) est dit isotrope si :

\[ f(v, v) = 0, \]

où \( f : E \times E \to \mathbb{R} \) est une forme bilinéaire symétrique.

Exemples

  • Dans un espace euclidien classique avec un produit scalaire positif défini, il n'existe pas de vecteur isotrope (à l'exception du vecteur nul).
  • Dans des espaces avec une forme bilinéaire non définie positive (par exemple, en géométrie pseudo-euclidienne), il peut exister des vecteurs isotropes.

Applications

  • Les vecteurs isotropes jouent un rôle important en géométrie projective et en géométrie des quadriques.
  • Ils interviennent également dans la classification des formes quadratiques et des coniques.

Propriété importante

Si un vecteur est isotrope, alors il appartient au noyau de la forme quadratique associée. En effet, \( f(v, v) = 0 \) implique que \( v \) ne contribue pas positivement ou négativement à la forme quadratique.

Sous-Espaces Orthogonaux

La notion de sous-espaces orthogonaux joue un rôle central dans la géométrie des espaces vectoriels, notamment dans le contexte des formes bilinéaires symétriques ou des produits scalaires.

Définition

Soit \( E \) un espace vectoriel muni d'une forme bilinéaire symétrique \( f : E \times E \to \mathbb{R} \). Si \( F \) est un sous-espace vectoriel de \( E \), l'orthogonal de \( F \), noté \( F^\perp \), est défini comme :

\[ F^\perp = \{ v \in E \mid f(v, u) = 0 \quad \forall u \in F \}. \]

Propriétés

  • \( F^\perp \) est un sous-espace vectoriel de \( E \).
  • Si \( F \) est de dimension \( k \) et \( E \) de dimension \( n \), alors : \[ \dim(F) + \dim(F^\perp) = n. \] Cette propriété découle directement du théorème de la dimension.
  • Pour un espace vectoriel muni d'un produit scalaire, la décomposition orthogonale garantit que tout vecteur \( v \in E \) peut être écrit comme la somme : \[ v = v_1 + v_2, \] où \( v_1 \in F \) et \( v_2 \in F^\perp \).

Applications

  • Les sous-espaces orthogonaux sont utilisés dans la décomposition spectrale et dans la résolution de systèmes d'équations linéaires.
  • Ils apparaissent également dans la géométrie euclidienne et dans les transformations linéaires.

Matrice d’une Forme Quadratique en Dimension Finie

Dans un espace vectoriel de dimension finie, une forme quadratique est souvent représentée par une matrice, ce qui simplifie les calculs et permet une analyse algébrique de ses propriétés.

Définition

Soit \( f : E \to \mathbb{R} \) une forme quadratique définie par :

\[ f(v) = f\left(\sum_{i=1}^n x_i e_i\right) = \sum_{i,j=1}^n a_{ij} x_i x_j, \]

où \( \{e_1, e_2, \dots, e_n\} \) est une base de \( E \) et \( A = [a_{ij}] \) est une matrice symétrique. La matrice \( A \) est appelée la matrice associée à la forme quadratique \( f \).

Propriétés

  • La matrice \( A \) est toujours symétrique.
  • Les valeurs propres de \( A \) déterminent la nature de la forme quadratique :
    • Si toutes les valeurs propres sont strictement positives, la forme est définie positive.
    • Si toutes les valeurs propres sont strictement négatives, la forme est définie négative.
    • Sinon, elle est indéfinie.
  • Le changement de base dans \( E \) transforme la matrice \( A \) par une congruence.

Exemples

Pour une forme quadratique simple comme :

\[ f(x, y) = 3x^2 + 2xy + y^2, \]

la matrice associée est :

\[ A = \begin{pmatrix} 3 & 1 \\ 1 & 1 \end{pmatrix}. \]

Matrices Congruentes

Deux matrices sont dites congruentes si elles représentent la même forme bilinéaire ou quadratique dans deux bases différentes.

Définition

Soit \( A \) et \( B \) deux matrices symétriques. On dit que \( A \) et \( B \) sont congruentes s'il existe une matrice inversible \( P \) telle que :

\[ B = P^\top A P, \]

où \( P^\top \) est la transposée de \( P \).

Propriétés

  • La congruence préserve la signature de la forme quadratique associée.
  • Si \( A \) et \( B \) sont congruentes, elles représentent la même forme quadratique dans deux bases différentes.
  • Toute matrice symétrique peut être rendue diagonale par une congruence, ce qui conduit à la réduction de Sylvester.

Réduction de Sylvester

La réduction de Sylvester permet d'amener une matrice symétrique \( A \) à une forme diagonale en utilisant des transformations congruentes. Cette forme est donnée par :

\[ D = \begin{pmatrix} \lambda_1 & 0 & \cdots & 0 \\ 0 & \lambda_2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_n \end{pmatrix}, \]

où \( \lambda_i \) sont les valeurs propres de \( A \).

Applications

  • La congruence est utilisée pour classifier les formes quadratiques et les coniques.
  • Elle est essentielle en géométrie différentielle, en physique mathématique, et dans l'étude des systèmes dynamiques.

Méthode de Gauss

La Méthode de Gauss, également appelée élimination de Gauss, est une technique fondamentale pour résoudre des systèmes d’équations linéaires, calculer des inverses de matrices et déterminer le rang d’une matrice.

Principe

La méthode consiste à transformer un système d’équations ou une matrice en une forme plus simple appelée forme échelonnée (ou forme échelonnée réduite) en utilisant trois opérations élémentaires :

  1. Échanger deux lignes de la matrice.
  2. Multiplier une ligne par un scalaire non nul.
  3. Ajouter ou soustraire un multiple d’une ligne à une autre ligne.

Étapes de la Méthode

  1. Représenter le système d'équations linéaires sous forme matricielle augmentée.
  2. Appliquer les opérations élémentaires pour obtenir une matrice triangulaire supérieure.
  3. Résoudre le système par remontée (substitution arrière).

Exemple

Considérons le système d'équations suivant :

\[ \begin{aligned} 2x + y - z &= 8, \\ -3x - y + 2z &= -11, \\ -2x + y + 2z &= -3. \end{aligned} \]

Sa matrice augmentée est donnée par :

\[ \begin{pmatrix} 2 & 1 & -1 & 8 \\ -3 & -1 & 2 & -11 \\ -2 & 1 & 2 & -3 \end{pmatrix}. \]

En appliquant les opérations élémentaires, nous obtenons une matrice triangulaire supérieure :

\[ \begin{pmatrix} 2 & 1 & -1 & 8 \\ 0 & 1 & -1 & 1 \\ 0 & 0 & 1 & 2 \end{pmatrix}. \]

On peut alors résoudre facilement le système par substitution arrière : \( z = 2 \), \( y = 1 + z = 3 \), \( x = 4 \).

Applications

  • Résolution des systèmes d’équations linéaires.
  • Calcul du rang d’une matrice.
  • Détermination de l’inverse d’une matrice (si elle est inversible).

Théorème de Sylvester

Le Théorème de Sylvester, également appelé critère d’inertie de Sylvester, établit une relation fondamentale entre les formes quadratiques et les matrices associées.

Enoncé

Soit \( A \) une matrice symétrique réelle de dimension \( n \). Le théorème de Sylvester stipule que la signature de \( A \) (c’est-à-dire le triplet \((p, q, r)\) représentant respectivement le nombre de valeurs propres positives, négatives, et nulles) est invariant sous les transformations congruentes. En d’autres termes, si \( B \) est congruente à \( A \), alors elles ont la même signature.

Déduction de la Signature

Pour déterminer la signature d’une matrice \( A \), on peut utiliser les mineurs principaux de \( A \) :

  1. Construire les mineurs principaux \( D_k = \det(A_k) \), où \( A_k \) est la sous-matrice \( k \times k \) située dans le coin supérieur gauche de \( A \).
  2. Analyser les signes des \( D_k \). Selon le critère de Sylvester :
    • Si \( D_k > 0 \) pour tout \( k \), la forme est définie positive.
    • Si les signes alternent, la forme est indéfinie.

Exemple

Considérons la matrice suivante :

\[ A = \begin{pmatrix} 2 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 2 \end{pmatrix}. \]

Les mineurs principaux sont calculés comme suit :

\[ D_1 = 2, \quad D_2 = \det \begin{pmatrix} 2 & -1 \\ -1 & 2 \end{pmatrix} = 3, \quad D_3 = \det(A) = 4. \]

Comme tous les \( D_k > 0 \), la forme quadratique associée est définie positive.

Applications

  • Classification des formes quadratiques (définie positive, négative, ou indéfinie).
  • Analyse spectrale et réduction des matrices symétriques.
  • Utilisé dans les problèmes d'optimisation quadratique et en physique mathématique.

Ces posts pourraient vous intéresser

Enregistrer un commentaire

regle de system commentaires:
Chacun doit respecter les commentaires et les opinions des autres.
Évitez d'utiliser des mots offensants ou de diffamer les autres.

Aucun commentaire

416167574146061894

Bookmarks

La liste des signets est vide... Ajoutez vos signets maintenant

    Rechercher