Neurodynamic chance-constrained geometric optimization - TEL - Thèses en ligne Accéder directement au contenu
Thèse Année : 2023

Neurodynamic chance-constrained geometric optimization

Optimisation géométrique neurodynamique avec des contraintes en probabilité

Siham Tassouli
  • Fonction : Auteur
  • PersonId : 1330759
  • IdRef : 272818836

Résumé

In many real-world scenarios, decision-makers face uncertainties that can affect the outcomes of their decisions. These uncertainties arise from various sources, such as variability in demand, fluctuating market conditions, or incomplete information about system parameters. Traditional deterministic optimization approaches assume that all parameters are known with certainty, which may not accurately reflect the reality of the problem. Chance-constrained optimization provides a more realistic and robust approach by explicitly accounting for the uncertainty in decision-making. Geometric programming is often misunderstood as a technique exclusively designed for posynomial problems. However, it is a versatile mathematical theory with significant value in addressing a broad range of separable problems. In fact, its true strength lies in its ability to effectively tackle seemingly inseparable problems by leveraging their linear algebraic structure. This general applicability of geometric programming makes it a valuable tool for studying and solving various optimization problems, extending its practical usefulness beyond its initial perception. Recurrent neural networks (RNNs) offer a biologically inspired computational framework with great optimization potential. By emulating the interconnected structure of neurons in the brain, RNNs excel in modeling complex and dynamic systems. This capability allows them to capture temporal dependencies and feedback loops, making them well-suited for optimization scenarios that involve sequential decision-making or iterative processes. Moreover, one of the key advantages of neurodynamic approaches is their hardware implementation feasibility. The primary objective of this thesis is to develop neurodynamic algorithms that are efficient and effective in solving chance-constrained geometric optimization problems. The thesis begins by focusing on chance-constrained geometric programs involving independent random variables. In addition, a specific type of geometric programs known as rectangular programs is also examined in detail. The objective is to understand the characteristics and complexities associated with this subclass of geometric programs. Subsequently, the thesis explores applying copula theory to address chance-constrained geometric programs with dependent random variables. Copula theory provides a mathematical framework for modeling and analyzing the dependence structure between random variables, thereby enhancing the understanding and optimization of these problems. Lastly, the thesis investigates distributionally robust geometric optimization, which considers uncertain distributions of random variables. This approach focuses on developing optimization algorithms that are robust against uncertainty in the underlying probability distributions, ensuring more reliable and stable solutions.
Dans de nombreux problèmes réels, les décideurs sont confrontés à des incertitudes qui peuvent affecter les résultats de leurs décisions. Ces incertitudes découlent de diverses sources, telles que la variabilité de la demande, les conditions fluctuantes du marché ou des informations incomplètes sur les paramètres du système. Les approches traditionnelles d'optimisation déterministe supposent que tous les paramètres sont connus avec certitude, ce qui peut ne pas refléter avec précision la réalité du problème. L'optimisation sous contraintes de probabilité offre une approche plus réaliste et robuste en tenant compte explicitement de l'incertitude dans la prise de décision. La programmation géométrique est souvent mal comprise comme une technique exclusivement conçue pour les problèmes posynômes. Cependant, c'est une théorie mathématique polyvalente qui a une valeur significative pour résoudre un large éventail de problèmes. En fait, sa véritable force réside dans sa capacité à résoudre efficacement des problèmes en apparence inséparables en exploitant leur structure algébrique linéaire. Cette applicabilité générale de la programmation géométrique en fait un outil précieux pour étudier et résoudre divers problèmes d'optimisation, étendant ainsi son utilité pratique au-delà de sa perception initiale. Les réseaux de neurones récurrents offrent un cadre de calcul inspiré de la biologie avec un grand potentiel d'optimisation. En imitant la structure interconnectée des neurones du cerveau, les réseaux de neurones récurrents excellent dans la modélisation de systèmes complexes et dynamiques. Cette capacité leur permet de capturer les dépendances temporelles et les boucles de rétroaction, ce qui les rend bien adaptés aux scénarios d'optimisation impliquant des prises de décision séquentielles ou des processus itératifs. De plus, l'un des principaux avantages des approches neurodynamiques est leur faisabilité de mise en œuvre matérielle. L'objectif principal de cette thèse est de développer des algorithmes neurodynamiques efficaces et performants pour résoudre des problèmes d'optimisation géométrique avec des contraintes de probabilité. La thèse commence par les programmes géométriques avec des contraintes de probabilité impliquant des variables aléatoires indépendantes. De plus, un type spécifique de programmes géométriques appelés programmes rectangulaires est également examiné en détail. L'objectif est de comprendre les caractéristiques et les complexités associées à cette sous-classe de programmes géométriques. Ensuite, la thèse explore l'application de la théorie des copules pour aborder les programmes géométriques avec des contraintes de probabilité impliquant des variables aléatoires dépendantes. La théorie des copules fournit un cadre mathématique pour modéliser et analyser la structure de dépendance entre les variables aléatoires, améliorant ainsi la compréhension et l'optimisation de ces problèmes. Enfin, la thèse examine l'optimisation géométrique robuste, qui prend en compte les distributions incertaines des variables aléatoires. Cette approche vise à développer des algorithmes d'optimisation résistant à l'incertitude dans les distributions de probabilité sous-jacentes, garantissant des solutions plus fiables et stables.
Fichier principal
Vignette du fichier
128037_TASSOULI_2023_archivage.pdf (3.9 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-04368943 , version 1 (02-01-2024)

Identifiants

  • HAL Id : tel-04368943 , version 1

Citer

Siham Tassouli. Neurodynamic chance-constrained geometric optimization. Optimization and Control [math.OC]. Université Paris-Saclay, 2023. English. ⟨NNT : 2023UPASG062⟩. ⟨tel-04368943⟩
50 Consultations
43 Téléchargements

Partager

Gmail Facebook X LinkedIn More