Cas particuliers de la règle du multiplicateur de Lagrange. Méthode du multiplicateur de Lagrange. Signification économique des multiplicateurs de Lagrange. Problème de Lagrange. Extrêmes inconditionnels et conditionnels

Méthode du multiplicateur de Lagrange est une méthode classique pour résoudre des problèmes programmation mathématique(notamment convexe). Malheureusement, quand application pratique La méthode peut rencontrer d’importantes difficultés de calcul, réduisant ainsi le champ de son utilisation. Nous considérons ici la méthode de Lagrange principalement parce qu'il s'agit d'un appareil activement utilisé pour justifier diverses méthodes numériques modernes largement utilisées dans la pratique. Quant à la fonction de Lagrange et aux multiplicateurs de Lagrange, ils jouent un rôle indépendant et extrêmement important dans la théorie et les applications non seulement de la programmation mathématique.

Considérons le problème d'optimisation classique

max (min) z=f(x) (7.20)

Ce problème se distingue du problème (7.18), (7.19) en ce sens que parmi les restrictions (7.21) il n'y a pas d'inégalités, il n'y a pas de conditions pour que les variables soient non négatives, leur discrétion et les fonctions f(x) sont continu et ont des dérivées partielles par rapport à au moins deuxième commande.

L'approche classique de résolution du problème (7.20), (7.21) donne un système d'équations ( conditions nécessaires), qui doit être satisfait par le point x*, qui fournit à la fonction f(x) un extremum local sur l'ensemble des points satisfaisant les contraintes (7.21) (pour le problème de programmation convexe, le point trouvé x*, conformément à Le théorème 7.6, sera simultanément le point de l'extremum global).

Supposons qu'au point x* la fonction (7.20) ait un extremum conditionnel local et que le rang de la matrice soit égal à . Ensuite les conditions nécessaires seront écrites sous la forme :

(7.22)

il existe une fonction de Lagrange ; - Multiplicateurs de Lagrange.

Il existe également des conditions suffisantes dans lesquelles la solution du système d'équations (7.22) détermine le point extremum de la fonction f(x). Cette question est résolue à partir de l'étude du signe de la différentielle seconde de la fonction de Lagrange. Cependant, les conditions suffisantes ont surtout un intérêt théorique.

Vous pouvez spécifier la procédure suivante pour résoudre le problème (7.20), (7.21) en utilisant la méthode du multiplicateur de Lagrange :

1) composer la fonction de Lagrange (7.23) ;

2) trouver les dérivées partielles de la fonction de Lagrange par rapport à toutes les variables et mettez-les égaux à zéro. Cela donnera lieu au système (7.22), composé d’équations. Résolvez le système résultant (si cela s'avère possible !) et trouvez ainsi tous les points stationnaires de la fonction de Lagrange ;

3) à partir de points stationnaires pris sans coordonnées, sélectionner les points auxquels la fonction f(x) a des extrema locaux conditionnels en présence de restrictions (7.21). Ce choix se fait par exemple en utilisant des conditions suffisantes extrême local. Souvent, l'étude est simplifiée si des conditions spécifiques du problème sont utilisées.



Exemple 7.3. Trouver répartition optimale ressource limitée dans une unité. entre n consommateurs, si le profit tiré de l'allocation de x j unités de ressource au jème consommateur est calculé par la formule .

Solution.Modèle mathématique a des tâches vue suivante:


On compose la fonction de Lagrange :

.

Nous trouvons dérivées partielles de la fonction de Lagrange et assimilons-les à zéro :

En résolvant ce système d'équations, on obtient :

Ainsi, si le jème consommateur se voit attribuer des unités. ressource, alors le profit total atteindra sa valeur maximale et s'élèvera à den. unités

Nous avons examiné la méthode de Lagrange appliquée à problème classique optimisation. Cette méthode peut être généralisée au cas où les variables sont non négatives et où certaines contraintes sont données sous forme d'inégalités. Cependant, cette généralisation est avant tout théorique et ne conduit pas à des algorithmes de calcul spécifiques.

En conclusion, donnons les multiplicateurs de Lagrange interprétation économique. Pour ce faire, tournons-nous vers le problème d'optimisation classique le plus simple

maximum (min) z=f(x 1 , X 2); (7.24)

𝜑(x 1, x 2)=b. (7.25)

Supposons que l'extremum conditionnel soit atteint au point . Valeur extrême correspondante de la fonction f(x)

Supposons que dans les restrictions (7.25) la quantité b peut changer, alors les coordonnées du point extremum, et donc la valeur extrême f* fonctions f(x) deviendront des quantités en fonction de b, c'est-à-dire ,, et donc la dérivée de la fonction (7.24)

Méthode du multiplicateur de Lagrange.

La méthode du multiplicateur de Lagrange est l'une des méthodes qui permettent de résoudre des problèmes sans programmation linéaire.

La programmation non linéaire est une branche de la programmation mathématique qui étudie les méthodes de résolution de problèmes extrêmes avec une fonction objectif non linéaire et une région de solutions réalisables définies par des contraintes non linéaires. En économie, cela correspond au fait que les résultats (l'efficacité) augmentent ou diminuent de manière disproportionnée par rapport aux changements dans l'échelle d'utilisation des ressources (ou, ce qui revient au même, dans l'échelle de production) : par exemple, en raison de la répartition des coûts de production en entreprises en variables et semi-fixes; en raison de la saturation de la demande de biens, lorsque chaque unité suivante est plus difficile à vendre que la précédente, etc.

Le problème de programmation non linéaire se pose comme le problème de trouver l'optimum d'un certain fonction objectif

F(x 1 ,…x n), F (x) → maximum

lorsque les conditions sont remplies

g j (x 1 ,…x n)≥0, g (x) ≤ b , x ≥ 0

x-vecteur des variables requises ;

F (x) -fonction objective ;

g (x) - fonction de contrainte (dérivable en continu) ;

b - vecteur de constantes de contraintes.

La solution d'un problème de programmation non linéaire (maximum ou minimum global) peut appartenir soit à la frontière, soit à l'intérieur de l'ensemble admissible.

Contrairement à un problème de programmation linéaire, dans un problème de programmation non linéaire, l'optimum ne se situe pas nécessairement à la limite de la région définie par les contraintes. En d'autres termes, la tâche consiste à sélectionner de telles valeurs de variables non négatives, soumises à un système de restrictions sous forme d'inégalités, sous lesquelles le maximum (ou le minimum) d'une fonction donnée est atteint. Dans ce cas, ni les formes de la fonction objectif ni les inégalités ne sont précisées. Il peut y avoir différents cas: la fonction objectif est non linéaire, et les contraintes sont linéaires ; la fonction objectif est linéaire, et les contraintes (au moins l'une d'entre elles) sont non linéaires ; la fonction objectif et les contraintes sont non linéaires.

Le problème de la programmation non linéaire se retrouve dans les sciences naturelles, l'ingénierie, l'économie, les mathématiques, les relations commerciales et le gouvernement.



La programmation non linéaire, par exemple, est liée à un problème économique fondamental. Ainsi, dans le problème de l'allocation de ressources limitées, soit l'efficacité, soit, si l'on étudie le consommateur, la consommation est maximisée en présence de restrictions qui expriment les conditions de rareté des ressources. Dans une telle formulation générale, la formulation mathématique du problème peut être impossible, mais dans des applications spécifiques, la forme quantitative de toutes les fonctions peut être déterminée directement. Par exemple, une entreprise industrielle fabrique des produits en plastique. L’efficacité de la production est ici mesurée par le profit et les contraintes sont interprétées comme la main-d’œuvre disponible, l’espace de production, la productivité des équipements, etc.

La méthode coût-efficacité s’inscrit également dans le schéma de programmation non linéaire. Cette méthode a été développé pour être utilisé dans la prise de décision au sein du gouvernement. Fonction générale l'efficacité est le bien-être. Ici, deux problèmes de programmation non linéaire se posent : le premier consiste à maximiser l'effet à des coûts limités, le second à minimiser les coûts à condition que l'effet soit supérieur à un certain niveau. niveau minimum. Ce problème est généralement bien modélisé à l'aide de la programmation non linéaire.

Les résultats de la résolution d’un problème de programmation non linéaire sont utiles à la prise de décisions gouvernementales. La solution résultante est bien entendu recommandée, il est donc nécessaire d’examiner les hypothèses et l’exactitude du problème de programmation non linéaire avant de prendre une décision finale.

Les problèmes non linéaires sont complexes ; ils sont souvent simplifiés en conduisant à des problèmes linéaires. Pour ce faire, on suppose classiquement que dans un domaine particulier, la fonction objectif augmente ou diminue proportionnellement à l'évolution des variables indépendantes. Cette approche est appelée méthode d'approximations linéaires par morceaux, mais elle n'est applicable qu'à certains types ; problèmes non linéaires.

Les problèmes non linéaires sous certaines conditions sont résolus à l'aide de la fonction de Lagrange : l'ayant trouvé point de selle, trouvant ainsi une solution au problème. Parmi les algorithmes de calcul N. p. super endroit occupent des méthodes de gradient. Il n’existe pas de méthode universelle pour résoudre les problèmes non linéaires et, apparemment, il n’y en a peut-être pas, car ils sont extrêmement divers. Les problèmes multiextrémaux sont particulièrement difficiles à résoudre.

L'une des méthodes qui permet de réduire un problème de programmation non linéaire à la résolution d'un système d'équations est la méthode multiplicateurs non définis Lagrange.

Grâce à la méthode du multiplicateur de Lagrange, les conditions nécessaires sont essentiellement établies pour permettre l'identification de points optimaux dans des problèmes d'optimisation avec contraintes d'égalité. Dans ce cas, le problème des restrictions se transforme en un problème équivalent optimisation inconditionnelle, qui implique des paramètres inconnus appelés multiplicateurs de Lagrange.

La méthode du multiplicateur de Lagrange consiste à réduire les problèmes sur un extremum conditionnel à des problèmes sur un extremum inconditionnel fonction auxiliaire- soi-disant Fonctions de Lagrange.

Pour le problème de l'extremum d'une fonction f(x 1, x 2,..., x n) dans les conditions (équations de contraintes) φ je(x 1 , x 2 , ..., x n) = 0, je= 1, 2,..., m, la fonction de Lagrange a la forme

L(x 1, x 2… x n,λ 1, λ 2,…λm)=f(x 1, x 2… x n)+∑ je -1 m λ je φ je (x 1, x 2… x n)

Multiplicateurs λ 1 , λ 2 , ..., λm appelé Multiplicateurs de Lagrange.

Si les valeurs x 1 , x 2 , ..., x n , λ 1 , λ 2 , ..., λm l'essence des solutions aux équations qui déterminent les points stationnaires de la fonction de Lagrange, à savoir, pour les fonctions différentiables, sont les solutions du système d'équations

alors, sous des hypothèses assez générales, x 1 , x 2 , ..., x n fournissent un extremum de la fonction f.

Considérons le problème de la minimisation d'une fonction de n variables soumise à une contrainte sous forme d'égalité :

Minimiser f(x 1, x 2… x n) (1)

sous restrictions h 1 (x 1, x 2… x n)=0 (2)

Selon la méthode du multiplicateur de Lagrange, ce problème se transforme en problème d’optimisation sans contrainte suivant :

minimiser L(x,λ)=f(x)-λ*h(x) (3)

où la Fonction L(x;λ) est appelée fonction de Lagrange,

λ est une constante inconnue, appelée multiplicateur de Lagrange. Il n’y a aucune exigence concernant le signe de λ.

Laissez à valeur définieλ=λ 0 le minimum inconditionnel de la fonction L(x,λ) par rapport à x est atteint au point x=x 0 et x 0 satisfait l'équation h 1 (x 0)=0. Alors, comme il est facile de le voir, x 0 minimise (1) en tenant compte de (2), puisque pour toutes les valeurs de x satisfaisant (2), h 1 (x)=0 et L(x,λ)=min f(x).

Bien entendu, il faut choisir la valeur λ=λ 0 pour que la coordonnée du point minimum inconditionnel x 0 satisfasse l'égalité (2). Cela peut être fait si, en considérant λ comme variable, trouvez le minimum inconditionnel de la fonction (3) sous la forme d'une fonction λ, puis choisissez la valeur de λ à laquelle l'égalité (2) est satisfaite. Illustrons cela avec un exemple précis.

Minimiser f(x)=x 1 2 +x 2 2 =0

sous la contrainte h 1 (x)=2x 1 +x 2 -2=0=0

Le problème d’optimisation sans contrainte correspondant s’écrit comme suit :

minimiser L(x,λ)=x 1 2 +x 2 2 -λ(2x 1 +x 2 -2)

Solution. En assimilant les deux composantes du gradient L à zéro, on obtient

→ x 1 0 =λ

→ x 2 0 =λ/2

Afin de vérifier si le point stationnaire x° correspond au minimum, on calcule les éléments de la matrice hessienne de la fonction L(x;u), considérée en fonction de x,

ce qui s'avère être positif et défini.

Cela signifie que L(x,u) est une fonction convexe de x. Par conséquent, les coordonnées x 1 0 =λ, x 2 0 =λ/2 déterminent le point minimum global. Valeur optimaleλ est trouvé en substituant les valeurs x 1 0 et x 2 0 dans l'équation 2x 1 + x 2 =2, à partir de laquelle 2λ+λ/2=2 ou λ 0 =4/5. Ainsi, le minimum conditionnel est atteint à x 1 0 =4/5 et x 2 0 =2/5 et est égal à min f(x) = 4/5.

Lors de la résolution du problème à partir de l'exemple, nous avons considéré L(x;λ) en fonction de deux variables x 1 et x 2 et avons en outre supposé que la valeur du paramètre λ était choisie de manière à ce que la contrainte soit satisfaite. Si la solution du système

J=1,2,3,…,n

λ ne peut pas être obtenu sous forme de fonctions explicites, alors les valeurs de x et λ sont trouvées en résolvant le système suivant constitué de n+1 équations à n+1 inconnues :

J=1,2,3,…,n., h 1 (x)=0

Pour retrouver tout le monde solutions possibles Ce système peut utiliser des méthodes de recherche numérique (par exemple la méthode de Newton). Pour chacune des solutions (), il faut calculer les éléments de la matrice hessienne de la fonction L, considérée en fonction de x, et savoir si cette matrice est définie positive (minimum local) ou définie négative (maximum local ).

La méthode du multiplicateur de Lagrange peut être étendue au cas où le problème comporte plusieurs contraintes sous forme d'égalités. Considérons un problème général qui nécessite

Réduire f(x)

sous restrictions h k =0, k=1, 2, ..., K.

La fonction de Lagrange prend la forme suivante :

Ici λ 1 , λ 2 , ..., λk-Multiplicateurs de Lagrange, c'est-à-dire paramètres inconnus dont les valeurs doivent être déterminées. En assimilant les dérivées partielles de L par rapport à x à zéro, nous obtenons le système suivant n équation à n inconnues :

S'il est difficile de trouver une solution au système ci-dessus sous forme de fonctions du vecteur λ, vous pouvez alors étendre le système en incluant des restrictions sous forme d'égalités

La solution du système étendu, constitué de n + K équations à n + K inconnues, détermine le point stationnaire de la fonction L. Ensuite, une procédure de vérification d'un minimum ou d'un maximum est mise en œuvre, qui est effectuée sur la base du calcul les éléments de la matrice hessienne de la fonction L, considérés en fonction de x, de la même manière que cela a été fait dans le cas d'un problème à une contrainte. Pour certains problèmes, un système étendu d’équations n+K avec n+K inconnues peut n’avoir aucune solution, et la méthode du multiplicateur de Lagrange s’avère inapplicable. Il convient toutefois de noter que de telles tâches sont assez rares dans la pratique.

Considérons cas particulier tâche commune programmation non linéaire, en supposant que le système de contraintes ne contient que des équations, il n'y a pas de conditions pour la non-négativité des variables et et - les fonctions sont continues avec leurs dérivées partielles. Par conséquent, en résolvant le système d’équations (7), nous obtenons tous les points auxquels la fonction (6) peut avoir des valeurs extrêmes.

Algorithme pour la méthode du multiplicateur de Lagrange

1. Composez la fonction de Lagrange.

2. Trouvez les dérivées partielles de la fonction de Lagrange par rapport aux variables x J ,λ i et assimilez-les à zéro.

3. Nous résolvons le système d'équations (7), trouvons les points auxquels la fonction objectif du problème peut avoir un extremum.

4. Parmi les points suspects d'un extremum, on retrouve ceux où l'extremum est atteint, et on calcule les valeurs de la fonction (6) en ces points.

Exemple.

Données initiales : Selon le plan de production, l'entreprise doit fabriquer 180 produits. Ces produits peuvent être fabriqués de deux manières technologiques. Lors de la production de x 1 produits en utilisant la 1ère méthode, les coûts sont de 4x 1 +x 1 2 roubles, et lors de la production de x 2 produits en utilisant la 2ème méthode, ils sont de 8x 2 +x 2 2 roubles. Déterminez combien de produits doivent être fabriqués en utilisant chaque méthode afin que les coûts de production soient minimes.

La fonction objectif pour le problème énoncé a la forme
® min dans les conditions x 1 + x 2 =180, x 2 ≥0.
1. Composez la fonction de Lagrange
.
2. Nous calculons les dérivées partielles par rapport à x 1, x 2, λ et les assimilons à zéro :

3. En résolvant le système d'équations résultant, nous trouvons x 1 =91,x 2 =89

4. Après avoir effectué un remplacement dans la fonction objectif x 2 =180-x 1, on obtient une fonction d'une variable, à savoir f 1 =4x 1 +x 1 2 +8(180-x 1)+(180-x 1 ) 2

On calcule ou 4x 1 -364=0 ,

d'où nous avons x 1 * =91, x 2 * =89.

Réponse : Le nombre de produits fabriqués par la première méthode est x 1 =91, par la deuxième méthode x 2 =89, tandis que la valeur de la fonction objectif est égale à 17 278 roubles.


Soient et des fonctions scalaires deux fois continuellement différentiables de l'argument vectoriel. Il faut trouver l'extremum de la fonction, à condition que l'argument satisfasse au système de restrictions :

(la dernière condition est aussi appelée condition de connexion).

La plupart méthode simple trouver un extremum conditionnel revient à réduire le problème à trouver extrême inconditionnel en résolvant l'équation de couplage par rapport à m variables et leur substitution ultérieure dans la fonction objectif.

Exemple 3. Trouver l'extremum de la fonction sous la condition .

Solution. A partir de l'équation de connexion, nous exprimons x2à travers x1 et remplacez l'expression résultante dans la fonction à:

Cette fonction a un seul extremum (minimum) à x1=2. Respectivement, x2=1. Ainsi, le point d’extremum conditionnel (minimum) fonction donnée c'est le point.

Dans l'exemple considéré, l'équation de couplage est facilement résoluble par rapport à l'une des variables. Cependant, en plus cas difficiles Il n'est pas toujours possible d'exprimer des variables. En conséquence, l’approche décrite ci-dessus n’est pas applicable à tous les problèmes.

Plus méthode universelle résoudre les problèmes de recherche d’un extremum conditionnel est Méthode du multiplicateur de Lagrange. Elle est basée sur l’application du théorème suivant. Si un point est un point extrême d'une fonction dans la région définie par les équations, alors (sous certaines conditions supplémentaires) il existe un tel point m-vecteur dimensionnel ce point est un point stationnaire de la fonction

Algorithme pour la méthode du multiplicateur de Lagrange

Étape 1. Composez la fonction de Lagrange :

où est le multiplicateur de Lagrange correspondant à je-ème restriction.

Étape 2. Trouver les dérivées partielles de la fonction de Lagrange et les assimiler à zéro

Étape 3. Après avoir résolu le système résultant de n+méquations, trouver des points stationnaires.

Notez qu'aux points stationnaires, la condition nécessaire mais non suffisante pour l'extremum de la fonction est satisfaite. Analyse d'un point stationnaire pour la présence d'un extremum dans ce cas assez compliqué. Par conséquent, la méthode du multiplicateur de Lagrange est principalement utilisée dans les cas où l'existence d'un minimum ou d'un maximum de la fonction étudiée est connue à l'avance pour des raisons géométriques ou substantielles.

En résolvant certains tâches économiques Les multiplicateurs de Lagrange ont un certain contenu sémantique. Donc, si - le bénéfice de l'entreprise selon le plan de production n marchandises, - frais je-ème ressource, alors je je- évaluation de cette ressource, caractérisant le taux d'évolution de l'optimum de la fonction objectif en fonction de l'évolution je-ème ressource.

Exemple 4. Trouvez les extrema de la fonction sous la condition .

Solution. Les fonctions sont à la fois continues et ont des dérivées partielles continues. Composons la fonction de Lagrange :

Trouvons les dérivées partielles et assimilons-les à zéro.

On obtient deux points stationnaires :

Compte tenu de la nature de la fonction objectif, dont les lignes de niveau sont des plans, et de la fonction (ellipse), on conclut qu'au point la fonction prend une valeur minimale, et au point une valeur maximale.

Exemple 5. Dans le domaine des solutions système

trouver la valeur maximale et minimale de la fonction compte tenu de la condition.

Solution. L'intersection de la région des solutions réalisables et d'une droite est le segment MN: M(0,6), N(6.0). Par conséquent, la fonction peut prendre des valeurs extrêmes soit en points stationnaires, soit en points M Et N. Pour trouver un point stationnaire, on applique la méthode de Lagrange. Composons la fonction de Lagrange

Trouvons les dérivées partielles de la fonction de Lagrange et assimilons-les à zéro

En résolvant le système, on obtient un point stationnaire K(2.2;3.8). Comparons les valeurs de la fonction objectif aux points K, M, N:

Ainsi,

Exemple 6. On sait que la demande du marché pour un certain produit est de 180 pièces. Ce produit peut être fabriqué par deux entreprises du même groupe selon diverses technologies. Pendant la production x1 produits par la première entreprise, ses coûts seront frotter., et pendant la production x2 produits par la deuxième entreprise qu'ils composent frotter.

Déterminez combien de produits fabriqués à l'aide de chaque technologie l'entreprise peut proposer afin que les coûts totaux de sa production soient minimes.

Solution. Modèle mathématique du problème :

Pour trouver la valeur minimale de la fonction objectif soumise à x1+ x2=180, soit Sans prendre en compte l'exigence de non-négativité des variables, on compose la fonction de Lagrange :

Trouvons les dérivées premières de la fonction de Lagrange par rapport à x1, x2, je, et les assimilons à 0. Nous obtenons un système d'équations :

En résolvant ce système, nous trouvons les racines suivantes : , c'est-à-dire on obtient les coordonnées d'un point suspecté d'être un extremum.

Pour déterminer si un point ( ) minimum local, on étudie le déterminant hessien, pour lequel on calcule les dérivées partielles secondes de la fonction objectif :

Parce que

alors le déterminant hessien est défini positif ; donc la fonction objectif est convexe et au point ( ) nous avons un minimum local :

Joseph Louis Lagrange est né à Turin (Italie) dans une famille italo-française. Il étudie puis enseigne à l'École d'artillerie. En 1759, sur la recommandation d'Euler, Lagrange, 23 ans, est élu membre de l'Académie des sciences de Berlin. En 1766, il en devint déjà le président. Frédéric II invite Lagrange à Berlin. Après la mort de Frédéric II en 1786, Lagrange s'installe à Paris. À partir de 1722, il fut membre de l'Académie des sciences de Paris, en 1795 il fut nommé membre du Bureau des longitudes et il participa activement à la création du système de mesures métriques. Cercle recherche scientifique Lagrange était inhabituellement large. Ils sont consacrés à la mécanique, à la géométrie, analyse mathématique, algèbre, théorie des nombres et astronomie théorique. L'orientation principale des recherches de Lagrange était la représentation d'une grande variété de phénomènes en mécanique avec point unique vision. Il en a dérivé une équation qui décrit le comportement de tout système sous l’influence de forces. Dans le domaine de l'astronomie, Lagrange a beaucoup fait pour résoudre le problème de la stabilité système solaire; ont prouvé quelques cas particuliers de mouvement stable, en particulier pour les petits corps situés aux points de libration dits triangulaires.

méthode Lagrange─ est une méthode de résolution d'un problème d'optimisation sous contrainte dans laquelle des contraintes, écrites sous forme de fonctions implicites, sont combinées avec une fonction objectif sous la forme d'une nouvelle équation appelée Lagrangien.

Considérons un cas particulier du problème général de programmation non linéaire :

Étant donné un système d'équations non linéaires (1) :

(1) gi(x1,x2,…,xn)=bi (i=1..m),

Trouver la plus petite (ou la plus grande) valeur de la fonction (2)

(2) f (x1,x2,…,xn),

s'il n'y a aucune condition pour que les variables soient non négatives et que f(x1,x2,…,xn) et gi(x1,x2,…,xn) sont des fonctions continues avec leurs dérivées partielles.

Pour trouver une solution à ce problème, vous pouvez appliquer la méthode suivante : 1. Entrez un ensemble de variables λ1, λ2,..., λm, appelées multiplicateurs de Lagrange, composez la fonction de Lagrange (3)

(3) F(х1,х2,…,хn, λ1,λ2,…,λm) = f(х1,х2,…,хn)+ λi.

2. Trouvez les dérivées partielles de la fonction de Lagrange par rapport aux variables xi et λi et assimilez-les à zéro.

3. En résolvant un système d'équations, ils trouvent des points auxquels la fonction objective du problème peut avoir un extremum.

4. Parmi les points suspects pas un extremum, trouvez ceux où l'extremum est atteint, et calculez les valeurs de la fonction en ces points .

4. Comparez les valeurs obtenues de la fonction f et sélectionnez la meilleure.

Selon le plan de production, l'entreprise doit fabriquer 180 produits. Ces produits peuvent être fabriqués de deux manières technologiques. Lors de la production de produits x1 en utilisant la méthode I, les coûts sont de 4*x1+x1^2 roubles, et lors de la production de produits x2 en utilisant la méthode II, ils sont de 8*x2+x2^2 roubles. Déterminez combien de produits doivent être fabriqués en utilisant chaque méthode afin que le coût total de production soit minime.

Solution : La formulation mathématique du problème consiste à déterminer valeur la plus basse fonctions de deux variables :

f = 4*x1+x1^2 +8*x2 +x2^2, à condition que x1 +x2 = 180.

Composons la fonction de Lagrange :

F(x1,x2,λ) = 4*x1+x1^2+8*x2+x2^2+λ*(180-x1-x2).

Calculons ses dérivées partielles par rapport à x1, x2, λ et assimilons-les à 0 :

Déplaçons λ vers les côtés droits des deux premières équations et égalisons leurs côtés gauches, nous obtenons 4 + 2*x1 = 8 + 2*x2, ou x1 − x2 = 2.

En résolvant la dernière équation avec l'équation x1 + x2 = 180, nous trouvons x1 = 91, x2 = 89, c'est-à-dire que nous avons obtenu une solution qui satisfait aux conditions :

Trouvons la valeur de la fonction objectif f pour ces valeurs des variables :

F(x1, x2) = 17278

Ce point est suspect pour un point extrême. En utilisant les dérivées partielles secondes, nous pouvons montrer qu'au point (91.89) la fonction f a un minimum.

Il est utilisé pour résoudre des problèmes avec une expression analytique du critère d'optimalité et en présence de restrictions sur l'indépendance taper des variables est égal Pour recevoir solution analytique il est nécessaire que les restrictions aient une forme analytique. L'utilisation de multiplicateurs de Lagrange indéfinis permet de réduire le problème d'optimisation avec contraintes à un problème résolu par des méthodes d'étude des fonctions d'analyse classique. Dans ce cas, l’ordre du système d’équations résolu pour trouver l’extremum du critère d’optimisation augmente du nombre de contraintes. La méthode est efficace lorsque le nombre de variables est de trois ou moins. La méthode est également utilisée lorsque le nombre de variables est supérieur à trois, si le processus est décrit par des équations finies.

Supposons qu'il soit nécessaire de trouver l'extremum d'une fonction qui dépend de n variables, elles-mêmes reliées par des relations. L'extremum atteint par une fonction, compte tenu du respect des conditions, est dit relatif ou conditionnel. Si le nombre de variables est égal au nombre de relations (), alors les inconnues requises sont trouvées en résolvant le système d'équations décrit par les relations. Résoudre le problème d'optimisation revient à vérifier les valeurs des variables ainsi trouvées par rapport aux fonctions. Ainsi, le problème extrême peut être résolu recherche simple variables qui satisfont aux conditions.

Si m< n , alors nous pouvons trouver la dépendance à partir des équations de couplage m variables de n-m variables restantes, c'est-à-dire

La fonction peut être obtenue en substituant les variables résultantes dans la fonction. Ensuite cela dépendra uniquement de variables non liées conditions supplémentaires. Par conséquent, en supprimant les restrictions, il est possible de réduire la dimension du problème d’optimisation initial. Souvent, le problème ne peut pas être résolu analytiquement de cette manière. Par conséquent, pour résoudre les problèmes de recherche de l'extremum d'une fonction de plusieurs variables, la méthode de Lagrange des multiplicateurs indéfinis est généralement utilisée.

Lors de l'introduction de nouvelles variables appelées multiplicateurs de Lagrange indéfinis, il devient possible d'introduire une nouvelle fonction

ceux. fonction m+n variables, dans lesquelles les restrictions imposées par le système de fonctions sont incluses comme partie intégrante.

Une valeur extrême d'une fonction coïncide avec une valeur extrême d'une fonction si la condition de contrainte est remplie. Une condition nécessaire pour l'extremum d'une fonction à plusieurs variables est que la différentielle de cette fonction au point extrême soit égale à zéro, c'est-à-dire

Pour que cette expression soit satisfaite pour toutes valeurs des différentielles indépendantes, il faut que les coefficients de ces différentiels soient égaux à zéro, ce qui donne un système d'équations

Dans ce cas, de nouveaux indépendants sont déterminés à partir de la condition

La combinaison des systèmes (4.3.1) et (4.3.2) peut être obtenue

Ainsi, le problème sous la forme (4.3.3) se réduit à la tâche : trouver

Par ailleurs, il convient de noter que dans cas général La méthode du multiplicateur de Lagrange permet de trouver uniquement les conditions nécessaires à l'existence d'un extremum conditionnel pour fonctions continues, ayant des dérivées continues. Cependant, à partir de signification physique le problème à résoudre sait généralement s'il s'agit du maximum ou du minimum de la fonction ; de plus, en règle générale, dans les problèmes de conception, la fonction sur le segment considéré est unimodale. Par conséquent, dans les problèmes de conception, il n'est pas nécessaire de vérifier les valeurs des variables trouvées lors de la résolution des systèmes d'équations considérés pour l'extremum en utilisant l'analyse des dérivées d'ordre supérieur.



Des questions ?

Signaler une faute de frappe

Texte qui sera envoyé à nos rédacteurs :