La différentiabilité est un concept fondamental en analyse mathématique qui décrit la capacité d'une fonction à être approchée localement par une fonction affine. Ce cours présente les notions de dérivées partielles, matrice Jacobienne, inégalité des accroissements finis, ainsi que les fonctions de classe \( C^2 \) et le théorème de Schwarz.
Définition de la Différentiabilité
Une fonction \( f \) est dite différentiable en un point \( x_0 \) si sa dérivée existe en ce point. Autrement dit, il existe un vecteur \( v \) tel que :
\[ \lim_{h \to 0} \frac{f(x_0 + h) - f(x_0) - v \cdot h}{\|h\|} = 0 \]
Dans le cas d'une fonction à plusieurs variables, on parle de dérivées partielles, qui sont les dérivées de la fonction par rapport à chacune de ses variables indépendantes.
Dérivées Partielles
Les dérivées partielles sont des extensions des dérivées ordinaires aux fonctions de plusieurs variables. Lorsqu'une fonction dépend de plusieurs variables indépendantes, la dérivée partielle mesure comment cette fonction change par rapport à l'une de ses variables, en supposant que toutes les autres variables sont constantes.
Définition
Soit \( f : \mathbb{R}^n \to \mathbb{R} \) une fonction de \( n \) variables réelles. La dérivée partielle de \( f \) par rapport à une variable \( x_i \), notée \( \frac{\partial f}{\partial x_i} \), est définie comme suit :
\[ \frac{\partial f}{\partial x_i}(x_1, x_2, \dots, x_n) = \lim_{h \to 0} \frac{f(x_1, \dots, x_i + h, \dots, x_n) - f(x_1, \dots, x_n)}{h} \]
Cette définition implique que nous considérons la variation de \( f \) lorsque l'on modifie uniquement \( x_i \), tout en maintenant les autres variables constantes.
Interprétation géométrique
La dérivée partielle \( \frac{\partial f}{\partial x_i} \) représente la pente de la tangente à la surface de \( f \) dans la direction de \( x_i \). Cela nous donne une idée de la vitesse de changement de \( f \) selon \( x_i \), tout en maintenant les autres variables fixes.
Exemple 1 : Fonction de deux variables
Considérons la fonction \( f(x, y) = x^2 + y^2 \). Calculons les dérivées partielles par rapport à \( x \) et \( y \) :
\[ \frac{\partial f}{\partial x} = 2x \]
\[ \frac{\partial f}{\partial y} = 2y \]
La fonction \( f(x, y) = x^2 + y^2 \) est une fonction de deux variables, et ses dérivées partielles mesurent la vitesse de changement de \( f \) dans les directions \( x \) et \( y \), respectivement. Dans ce cas, \( \frac{\partial f}{\partial x} \) montre que la fonction change plus rapidement selon \( x \) que selon \( y \) lorsque \( x \) est grand.
Exemple 2 : Fonction de trois variables
Considérons la fonction \( f(x, y, z) = x^2y + yz^2 \). Calculons les dérivées partielles de \( f \) par rapport à \( x \), \( y \), et \( z \) :
\[ \frac{\partial f}{\partial x} = 2xy \]
\[ \frac{\partial f}{\partial y} = x^2 + z^2 \]
\[ \frac{\partial f}{\partial z} = 2yz \]
Dans cet exemple, nous avons une fonction de trois variables. Chaque dérivée partielle mesure le taux de variation de \( f \) par rapport à une variable donnée, tout en maintenant les autres constantes. Par exemple, \( \frac{\partial f}{\partial x} = 2xy \) montre comment \( f \) varie en fonction de \( x \), en tenant compte de \( y \) comme constante.
Exemple 3 : Dérivée partielle d'une fonction implicite
Considérons une fonction implicite définie par une relation entre les variables \( x \), \( y \) et \( z \). Par exemple, si \( g(x, y, z) = x^2 + y^2 + z^2 - 1 \), la dérivée partielle de \( z \) par rapport à \( x \), en utilisant la règle de dérivation implicite, est :
\[ \frac{\partial z}{\partial x} = -\frac{\frac{\partial g}{\partial x}}{\frac{\partial g}{\partial z}} = -\frac{2x}{2z} \]
Dans ce cas, nous devons résoudre \( g(x, y, z) = 0 \) pour \( z \), puis calculer la dérivée partielle de \( z \) en fonction de \( x \). La règle de dérivation implicite permet de traiter ce genre de situation où la fonction n'est pas explicitement donnée en termes de \( z \).
Propriétés des dérivées partielles
Les dérivées partielles satisfont plusieurs propriétés importantes :
\[ \frac{\partial f}{\partial x} = \frac{d f}{d g} \cdot \frac{\partial g}{\partial x} \]
Matrice Jacobienne
La matrice Jacobienne est un concept fondamental dans le calcul différentiel des fonctions de plusieurs variables. Elle généralise la notion de dérivée à des fonctions vectorielles. Plus précisément, la matrice Jacobienne est la matrice des dérivées partielles d'une fonction vectorielle multivariée par rapport aux variables indépendantes.
Définition
Soit \( \mathbf{f} : \mathbb{R}^n \to \mathbb{R}^m \) une fonction vectorielle de \( n \) variables réelles à \( m \) composantes. La matrice Jacobienne \( J_{\mathbf{f}} \) de \( \mathbf{f} \) est une matrice \( m \times n \) dont les éléments sont les dérivées partielles de chaque composante de \( \mathbf{f} \) par rapport à chaque variable \( x_i \), où \( x_1, x_2, \dots, x_n \) sont les variables indépendantes. Plus précisément, si \( \mathbf{f} = (f_1, f_2, \dots, f_m) \), alors la matrice Jacobienne est donnée par :
\[ J_{\mathbf{f}}(x_1, x_2, \dots, x_n) = \begin{pmatrix} \frac{\partial f_1}{\partial x_1} & \frac{\partial f_1}{\partial x_2} & \dots & \frac{\partial f_1}{\partial x_n} \\ \frac{\partial f_2}{\partial x_1} & \frac{\partial f_2}{\partial x_2} & \dots & \frac{\partial f_2}{\partial x_n} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial f_m}{\partial x_1} & \frac{\partial f_m}{\partial x_2} & \dots & \frac{\partial f_m}{\partial x_n} \end{pmatrix} \]
La matrice Jacobienne contient donc toutes les informations nécessaires pour décrire comment chaque composante de \( \mathbf{f} \) varie en fonction de chaque variable indépendante.
Interprétation géométrique
La matrice Jacobienne peut être vue comme une généralisation de la notion de dérivée dans le cas des fonctions de plusieurs variables. Elle décrit comment une petite variation des variables d'entrée \( x_1, x_2, \dots, x_n \) affecte les composantes de la sortie \( f_1, f_2, \dots, f_m \). En d'autres termes, elle donne une approximation linéaire du changement de la fonction \( \mathbf{f} \) autour d'un point donné, ce qui est essentiel dans les méthodes d'optimisation et dans l'analyse des systèmes dynamiques.
Exemple 1 : Fonction vectorielle à deux variables
Considérons la fonction vectorielle \( \mathbf{f}(x, y) = \begin{pmatrix} x^2y \\ xy^2 \end{pmatrix} \). Calculons la matrice Jacobienne de \( \mathbf{f} \).
La matrice Jacobienne est donnée par :
\[ J_{\mathbf{f}}(x, y) = \begin{pmatrix} \frac{\partial (x^2 y)}{\partial x} & \frac{\partial (x^2 y)}{\partial y} \\ \frac{\partial (xy^2)}{\partial x} & \frac{\partial (xy^2)}{\partial y} \end{pmatrix} = \begin{pmatrix} 2xy & x^2 \\ y^2 & 2xy \end{pmatrix} \]
Dans cet exemple, la matrice Jacobienne est une matrice \( 2 \times 2 \) où chaque entrée est une dérivée partielle des composantes de \( \mathbf{f} \) par rapport aux variables \( x \) et \( y \). Chaque élément de la matrice donne la variation de la composante de \( \mathbf{f} \) par rapport à l'une des variables indépendantes.
Exemple 2 : Fonction vectorielle à trois variables
Considérons maintenant une fonction vectorielle à trois variables \( \mathbf{f}(x, y, z) = \begin{pmatrix} x^2 + yz \\ y^2 + xz \\ z^2 + xy \end{pmatrix} \). Calculons la matrice Jacobienne de cette fonction.
\[ J_{\mathbf{f}}(x, y, z) = \begin{pmatrix} \frac{\partial (x^2 + yz)}{\partial x} & \frac{\partial (x^2 + yz)}{\partial y} & \frac{\partial (x^2 + yz)}{\partial z} \\ \frac{\partial (y^2 + xz)}{\partial x} & \frac{\partial (y^2 + xz)}{\partial y} & \frac{\partial (y^2 + xz)}{\partial z} \\ \frac{\partial (z^2 + xy)}{\partial x} & \frac{\partial (z^2 + xy)}{\partial y} & \frac{\partial (z^2 + xy)}{\partial z} \end{pmatrix} = \begin{pmatrix} 2x & z & y \\ z & 2y & x \\ y & x & 2z \end{pmatrix} \]
Dans ce cas, la matrice Jacobienne est une matrice \( 3 \times 3 \), et chaque dérivée partielle représente la variation d'une composante de la fonction par rapport à une des variables indépendantes. Par exemple, la première entrée de la première ligne \( \frac{\partial (x^2 + yz)}{\partial x} = 2x \) représente la variation de la première composante de \( \mathbf{f} \) en fonction de \( x \).
Applications de la matrice Jacobienne
La matrice Jacobienne est utilisée dans divers domaines des mathématiques appliquées :
- Optimisation : La matrice Jacobienne est utilisée pour les algorithmes d'optimisation, notamment dans les méthodes de gradient, où elle permet de décrire la variation des fonctions objectif.
- Études des systèmes dynamiques : En analyse des systèmes dynamiques, la matrice Jacobienne permet d'étudier la stabilité des systèmes en approximant les changements locaux des solutions d'un système d'équations différentielles.
- Équations différentielles : La matrice Jacobienne est utilisée pour linéariser des systèmes d'équations différentielles non linéaires autour de points d'équilibre.
Propriétés de la matrice Jacobienne
Inégalité des Accroissements Finis
L'inégalité des accroissements finis est un résultat fondamental du calcul différentiel qui établit une borne sur la variation d'une fonction entre deux points. Elle est utilisée pour démontrer des résultats importants comme le théorème de la moyenne, mais aussi dans des applications telles que l'estimation des erreurs et l'étude du comportement local des fonctions.
Définition
Soit \( f \) une fonction réelle définie sur un intervalle \( [a, b] \). L'inégalité des accroissements finis énonce que si \( f \) est dérivable sur \( (a, b) \) et continue sur \( [a, b] \), alors il existe un point \( c \in (a, b) \) tel que :
\[ \left| f(b) - f(a) \right| \leq \left| f'(c) \right| \cdot |b - a| \]
Cette inégalité montre que l'accroissement de la fonction \( f \) entre \( a \) et \( b \) est limité par le produit de la dérivée de \( f \) en un point \( c \) de l'intervalle et de la longueur de l'intervalle \( [a, b] \). En d'autres termes, l'accroissement de \( f \) ne peut pas être plus grand que le produit de la pente maximale de la fonction sur cet intervalle et de la distance \( |b - a| \).
Interprétation géométrique
Géométriquement, l'inégalité des accroissements finis exprime que la variation de la fonction sur l'intervalle \( [a, b] \) est bornée par la pente maximale de la tangente à la courbe de \( f \) entre \( a \) et \( b \). Le point \( c \) où cette pente est atteinte n'est pas nécessairement aux extrémités de l'intervalle, mais se trouve toujours dans l'intérieur de l'intervalle \( (a, b) \).
Application au Théorème de la Moyenne
L'inégalité des accroissements finis est un outil clé pour démontrer le théorème de la moyenne. Ce dernier énonce qu'il existe un point \( c \in (a, b) \) tel que :
\[ \frac{f(b) - f(a)}{b - a} = f'(c) \]
En effet, l'inégalité des accroissements finis peut être interprétée comme une borne sur la variation de la fonction, et lorsque cette borne est atteinte, on obtient le résultat du théorème de la moyenne, où la dérivée en \( c \) égale la pente de la droite reliant les points \( (a, f(a)) \) et \( (b, f(b)) \).
Exemple 1 : Fonction linéaire
Considérons la fonction \( f(x) = 3x + 2 \) définie sur l'intervalle \( [1, 4] \). Calculons la variation de la fonction sur cet intervalle et appliquons l'inégalité des accroissements finis.
La dérivée de \( f \) est \( f'(x) = 3 \), qui est constante. Par conséquent, pour tous les \( c \in [1, 4] \), nous avons :
\[ \left| f(4) - f(1) \right| = \left| (3 \cdot 4 + 2) - (3 \cdot 1 + 2) \right| = \left| 14 - 5 \right| = 9 \]
En appliquant l'inégalité des accroissements finis, nous avons :
\[ \left| f(4) - f(1) \right| \leq \left| f'(c) \right| \cdot |4 - 1| = 3 \cdot 3 = 9 \]
Dans ce cas, l'inégalité des accroissements finis est une égalité, car la fonction est linéaire et sa dérivée est constante sur tout l'intervalle.
Exemple 2 : Fonction quadratique
Considérons la fonction \( f(x) = x^2 \) définie sur l'intervalle \( [1, 3] \). Calculons la variation de la fonction et appliquons l'inégalité des accroissements finis.
La dérivée de \( f \) est \( f'(x) = 2x \). Calculons l'accroissement de la fonction entre \( x = 1 \) et \( x = 3 \) :
\[ \left| f(3) - f(1) \right| = \left| 3^2 - 1^2 \right| = \left| 9 - 1 \right| = 8 \]
Maintenant, appliquons l'inégalité des accroissements finis. Nous savons que \( f'(x) = 2x \), donc pour un point \( c \in (1, 3) \), nous avons :
\[ \left| f(3) - f(1) \right| \leq \left| f'(c) \right| \cdot |3 - 1| = 2c \cdot 2 = 4c \]
Nous cherchons à déterminer une valeur de \( c \) telle que l'inégalité soit satisfaite. Nous avons :
\[ 8 \leq 4c \quad \Rightarrow \quad c \geq 2 \]
Ainsi, il existe un \( c \in (1, 3) \), par exemple \( c = 2 \), qui satisfait cette inégalité. La variation de la fonction est donc bornée par \( 4c \), où \( c \) se situe dans l'intervalle \( (1, 3) \).
Fonctions de classe \( C^2 \)
Une fonction est dite de classe \( C^2 \) si ses dérivées partielles existent et sont continues jusqu'au second ordre. En d'autres termes, une fonction \( f \) est de classe \( C^2 \) sur un domaine \( D \subset \mathbb{R}^n \) si elle possède des dérivées partielles de premier et second ordre et que ces dérivées sont continues dans \( D \).
Formellement, on peut dire que \( f \) est de classe \( C^2 \) si pour toute paire d'indices \( i, j \), les dérivées \( \frac{\partial^2 f}{\partial x_i \partial x_j} \) existent et sont continues sur \( D \). Les fonctions \( C^2 \) sont donc particulièrement importantes dans l'analyse mathématique et en optimisation, où la continuité des dérivées est cruciale pour garantir certaines propriétés des solutions.
Propriétés des fonctions \( C^2 \)
Une fonction \( f : \mathbb{R}^n \to \mathbb{R} \) est dite de classe \( C^2 \) si :
- Les dérivées partielles de \( f \) jusqu'au second ordre existent et sont continues.
- Le gradient de \( f \), noté \( \nabla f \), existe et est continuellement dérivable.
- La matrice Hessienne de \( f \), notée \( H_f(x) \), est définie pour tous les \( x \in D \), où :
La matrice Hessienne joue un rôle essentiel dans l'étude de la courbure locale de la fonction et est utilisée dans les algorithmes d'optimisation pour déterminer la convexité ou concavité d'une fonction.
Exemple de fonction de classe \( C^2 \)
Considérons la fonction \( f(x, y) = x^2 + y^2 \). Calculons ses dérivées jusqu'au second ordre :
- Dérivées partielles de premier ordre : \[ \frac{\partial f}{\partial x} = 2x, \quad \frac{\partial f}{\partial y} = 2y \]
- Dérivées partielles de second ordre : \[ \frac{\partial^2 f}{\partial x^2} = 2, \quad \frac{\partial^2 f}{\partial y^2} = 2, \quad \frac{\partial^2 f}{\partial x \partial y} = 0 \]
Les dérivées de \( f \) sont toutes continues et bien définies, ce qui signifie que \( f \) est de classe \( C^2 \) sur \( \mathbb{R}^2 \).
Les fonctions \( C^2 \) sont donc des objets particulièrement réguliers qui ont de nombreuses applications en géométrie différentielle, analyse, et optimisation.
Théorème de Schwarz
Le théorème de Schwarz, également connu sous le nom d'inégalité de Cauchy-Schwarz, est un résultat fondamental en analyse et en géométrie vectorielle. Il énonce que, pour deux vecteurs dans un espace vectoriel réel ou complexe, le produit scalaire est toujours inférieur ou égal au produit des normes des vecteurs. Ce théorème est utilisé dans de nombreux domaines des mathématiques, tels que l'algèbre linéaire, l'optimisation, et l'analyse fonctionnelle.
Énoncé du Théorème de Schwarz
Soient \( x \) et \( y \) deux vecteurs d'un espace vectoriel réel ou complexe. Le théorème de Schwarz stipule que :
\[ | \langle x, y \rangle | \leq \|x\| \|y\| \]
Où \( \langle x, y \rangle \) représente le produit scalaire de \( x \) et \( y \), et \( \|x\| \) et \( \|y\| \) sont les normes des vecteurs \( x \) et \( y \), respectivement.
Cette inégalité montre que le produit scalaire de deux vecteurs est limité par le produit de leurs normes. L'égalité se vérifie si et seulement si les vecteurs sont colinéaires, c'est-à-dire lorsque \( x \) et \( y \) sont multiples l'un de l'autre.
Interprétation géométrique
Géométriquement, l'inégalité de Cauchy-Schwarz exprime que le produit scalaire de deux vecteurs est proportionnel à la norme de ces vecteurs, et la quantité \( \langle x, y \rangle \) représente une mesure du "lien" entre les deux vecteurs. L'égalité dans l'inégalité de Cauchy-Schwarz se produit lorsque les deux vecteurs sont parallèles, ce qui signifie que les vecteurs sont dans la même direction ou dans des directions opposées.
Formulation dans un espace Euclidien
Dans un espace Euclidien de dimension finie, le produit scalaire entre deux vecteurs \( x = (x_1, x_2, \dots, x_n) \) et \( y = (y_1, y_2, \dots, y_n) \) est défini par :
\[ \langle x, y \rangle = x_1 y_1 + x_2 y_2 + \dots + x_n y_n \]
Et la norme d'un vecteur \( x = (x_1, x_2, \dots, x_n) \) est donnée par :
\[ \|x\| = \sqrt{x_1^2 + x_2^2 + \dots + x_n^2} \]
Dans ce cadre, l'inégalité de Cauchy-Schwarz prend la forme suivante :
\[ \left| x_1 y_1 + x_2 y_2 + \dots + x_n y_n \right| \leq \sqrt{x_1^2 + x_2^2 + \dots + x_n^2} \cdot \sqrt{y_1^2 + y_2^2 + \dots + y_n^2} \]
Exemple 1 : Espaces Euclidiens
Considérons les vecteurs \( x = (1, 2, 3) \) et \( y = (4, -1, 2) \) dans \( \mathbb{R}^3 \). Calculons leur produit scalaire et appliquons l'inégalité de Cauchy-Schwarz.
Le produit scalaire de \( x \) et \( y \) est :
\[ \langle x, y \rangle = (1)(4) + (2)(-1) + (3)(2) = 4 - 2 + 6 = 8 \]
Les normes des vecteurs \( x \) et \( y \) sont :
\[ \|x\| = \sqrt{1^2 + 2^2 + 3^2} = \sqrt{1 + 4 + 9} = \sqrt{14} \]
\[ \|y\| = \sqrt{4^2 + (-1)^2 + 2^2} = \sqrt{16 + 1 + 4} = \sqrt{21} \]
Appliquons l'inégalité de Cauchy-Schwarz :
\[ | \langle x, y \rangle | = |8| = 8 \]
Et le produit des normes est :
\[ \|x\| \|y\| = \sqrt{14} \cdot \sqrt{21} = \sqrt{294} \approx 17.146 \]
Nous avons bien que \( 8 \leq 17.146 \), ce qui respecte l'inégalité de Cauchy-Schwarz.
Exemple 2 : Cas d'égalité
Pour que l'égalité dans l'inégalité de Cauchy-Schwarz soit vérifiée, il faut que les vecteurs soient colinéaires. Soit \( x = (2, 4) \) et \( y = (1, 2) \) dans \( \mathbb{R}^2 \). Vérifions l'égalité.
Le produit scalaire de \( x \) et \( y \) est :
\[ \langle x, y \rangle = (2)(1) + (4)(2) = 2 + 8 = 10 \]
Les normes des vecteurs \( x \) et \( y \) sont :
\[ \|x\| = \sqrt{2^2 + 4^2} = \sqrt{4 + 16} = \sqrt{20} \]
\[ \|y\| = \sqrt{1^2 + 2^2} = \sqrt{1 + 4} = \sqrt{5} \]
Le produit des normes est :
\[ \|x\| \|y\| = \sqrt{20} \cdot \sqrt{5} = \sqrt{100} = 10 \]
Nous avons ici \( \langle x, y \rangle = \|x\| \|y\| \), ce qui montre que l'égalité est atteinte et que \( x \) et \( y \) sont colinéaires.
0 Commentaires