img

Notice détaillée

Sur l'equation de hamilton bellmann jacobi en controle optimal stochastique

Thèses / mémoires Ecrit par: Chighoubi, Farid ; Mezerdi, Brahim ;

Résumé: Dans ce travail, nous nous sommes intéressés aux problèmes de contrôle optimal stochastique où le système est gouverné par une équation différentielle stochastique du type Ito. Plus précisémment, notre intérêt s'est porté sur les conditions nécessaires d'optimalité ainsi que sur le principe de la programmation dynamique. Le premier chapitre est une introduction à la théorie des processus stochastiques, on rappelle les principaux outils qui seront utilisés par la suite. Au second chapitre, on dé.nit le problème de contrôle et on étudie en détails l.équation de la programmation dynamique, appelée aussi équation de Hamilton Bellmann Jacobi. Le troisième chapitre est une étude du principe du maximum stochastique. On traite l.approche de Haussmann utilisant la transformation de Girsanov, ainsi que celle de Peng pour les systèmes où le coe¢ cient de di¤usion dépend explicitement du contrôle. Au dernier chapitre nous étudions le lien qui existe entre le principe du maximum et le principe de la programmation dynamique. On montre en particulier que le processus adjoint est la dérivée spatiale de la fonction de valeur

Biskra:
Langue: Français
Collation: 107 p. ill. ;30 cm
Diplôme: Magister
Etablissement de soutenance: Biskra, Université Mohamed Khider. Faculté des Sciences et des Sciences de l'Ingénieur
Spécialité: Mathématiques
Index décimal 510 .Mathématiques
Thème Mathématiques

Mots clés:
Processus stochastiques
Contrôle optimal

Note: Bibliogr.pp.106-107

Sur l'equation de hamilton bellmann jacobi en controle optimal stochastique

Sommaire