, Visualisation de la combustion de propergols solides par ombroscopie

. .. Caractéristiques, , vol.34

. .. Étalonnage, , p.36

.. .. Compositions,

. .. , Propergols solides avec particules d'aluminium, p.43

C. .. De-calcul-numérique-développée-À-l'onera-:-cedre,

C. .. Spécificités-de, 44 2.4 EMOTION : baseline de traitement sous LabView/NI-Vision

. .. , Détection de la surface du propergol en combustion, p.44

. .. Détections-de-particules,

, Suivi des objets détectés par EMOTION

. .. , Limites des approches utilisées dans EMOTION, p.45

.. .. Références,

S. Beucher and F. M. , «The morphological approach to segmentation : the watershed transformation, Optical Engineering-New York-Marcel Dekker Incorporated, vol.34, pp.433-433, 1992.

S. S. Blackman, Multiple-target tracking with radar applications, pp.463-75, 1986.

S. S. Blackman, «Multiple hypothesis tracking for multiple target tracking, IEEE Aerospace and Electronic Systems Magazine, vol.19, issue.1, pp.5-18, 2004.

J. Blaisot and J. Y. , «Droplet size and morphology characterization for dense sprays by image processing : application to the diesel spray, Experiments in fluids, vol.39, issue.6, p.82, 2005.

A. M. Bouwman, J. C. Bosma, P. Vonk, J. H. Wesselingh, and H. W. Frijlink, «Which shape factor (s) best describe granules ?, Powder Technology, vol.146, issue.2, pp.66-72, 2004.

V. Caselles, F. Catté, T. Coll, and F. Dibos, A geometric model for active contours in image processing, Numerische mathematik, vol.66, issue.1, pp.1-31, 1993.

V. Caselles, R. Kimmel, and G. Sapiro, «Geodesic active contours, International journal of computer vision, vol.22, issue.1, pp.61-79, 1997.

T. Castaings, «Documentation technique du logiciel dettracker de filtrage, détection et pistage», cahier de recherche, 2014.

T. F. Chan and L. A. Vese, «Active contours without edges, IEEE Transactions on image processing, vol.10, issue.2, pp.266-277, 2001.

R. Clift, J. R. Grace, and M. E. Weber, Bubbles, drops, and particles, Courier Corporation, p.85, 2005.

K. Fukunaga and L. Hostetler, «The estimation of the gradient of a density function, with applications in pattern recognition, IEEE transactions on information theory, vol.21, issue.1, pp.32-40, 1975.

J. Harrison and M. Brewster, Analysis of thermal radiation from burning aluminium in solid propellants», Combustion Theory and Modelling, vol.13, pp.389-411, 2009.

S. L. Horowitz and T. Pavlidis, «Picture segmentation by a tree traversal algorithm, Journal of the ACM (JACM), vol.23, issue.2, pp.368-388, 1976.

M. Kass, A. Witkin, and D. Terzopoulos, «Snakes : Active contour models, International journal of computer vision, vol.1, issue.4, pp.321-331, 1988.

S. Lloyd, «Least suqares quantization in pcm, IEEE transactions on information theory, vol.28, issue.2, pp.129-137, 1982.

D. Lottin, Dimensions fractales, morphologie et caractéristiques dimensionnelles 2D et 3D d'agrégats de nanoparticules de suie aéronautique : Etude par microscopie électronique en transmission et tomographie électronique, vol.67, 2013.

R. Malladi, J. A. Sethian, and B. C. Vemuri, «Topology-independent shape modeling scheme, International Society for Optics and Photonics, vol.2031, pp.246-259, 1993.

. .. Démarche-de-comparaison,

, Représentation de la géométrie de la chambre de combustion, p.118

, Modélisation de la combustion d'un échantillon de propergol dans la chambre de combustion

.. .. Mise-en-donnée-du-problème,

. .. Modélisation, 126 4.2.2 Représentation des gaz issus de la combustion du propergol, p.127

. .. , Choix du maillage de la chambre de combustion, p.131

, Simulation numérique de l'écoulement dans la chambre de combustion

. .. Étude-de-la-convergence-en-maillage, , p.138

, Influence des paramètres sur l'écoulement

, Simulation numérique avec particules inertes dans l'écoulement

, Étude des options d'injections sur les particules inertes injectées dans la simulation

, Analyse des profils de vitesse des particules dans l'écoulement, p.145

, Consolidation des simulations numériques du montage expérimental, p.153

.. .. Références,

B. Bourasseau, «Programme de calcul des performances des systèmes propulsifs coppelia, 1ère partie : description théorique», cahier de recherche, ONERA internal report, p.127, 1986.

M. Chase-jr, J. Curnutt, J. Downey-jr, R. Mcdonald, A. Syverud et al., Janaf thermochemical tables, 1982 supplement, vol.11, pp.695-940, 1982.

B. Glorieux, Mesure de la densité, de la tension superficielle et de la viscosité de l'alumine liquide en fonction de la température et de l'environnement par lévitation aerodynamique associée à l'analyse d'image, p.128, 2000.

A. Murrone and P. Villedieu, «Numerical modeling of dispersed two-phase flows», Aeros-paceLab, p.1, 2011.

Z. Naumann and L. Schiller, «A drag coefficient correlation, Ver Deutsch Ing, vol.77, pp.318-323, 1935.

W. Ranz and W. R. Marshall, «Evaporation from drops, Chem. Eng. Prog, vol.48, issue.3, pp.141-146, 1952.

D. R. Stull and H. Prophet, Janaf thermochemical tables», cahier de recherche, vol.127, 1971.

E. F. Toro, M. Spruce, and W. Speares, Restoration of the contact surface in the hll-riemann solver», Shock waves, vol.4, pp.25-34, 1994.

, Problématique de la visualisation des gouttes d'aluminium en combustion

, Opportunité offerte par les approches par apprentissage, p.160

, Critères d'évaluation de la performance de classification des gouttes, vol.164

. Baseline and . .. Mser, , p.166

, Méthodes d'apprentissage pour la segmentation des images d'ombroscopie

, État de l'art des méthodes de segmentation sémantique par apprentissage168

, Comparaison préliminaire des architectures de réseaux de neurones

, Adaptation des données au réseau de neurones sélectionné, p.181

, Estimation de la taille et de la vitesse des gouttes en combustion

, Évaluation de la performance de segmentation sémantique, p.184

. Post-traitement,

, Mesure de la taille et de la vitesse des gouttes en combustion, p.192

. .. Références, 201 CHAPITRE 5. ANALYSE DES IMAGES D'OMBROSCOPIE EN UTILISANT DES MÉTHODES D'APPRENTISSAGE dimension spatiale. Cependant les pooling intermédiaires conduisent à une sortie sous échantillonnée, et les différents travaux se différencient sur la façon de restaurer la dimension originale de l'image en sortie. La liste suivante en présente les principales contributions : -FCN, utilise des encodeurs de CNN courants tels que AlexNet, 2012.

[. Segnet and . Badrinarayanan, une structure encodeur décodeur (conv-deconv) symétrique avec passage de la position des max pooling pour la "déconvolution, 2015.

-. ,

[. -pspnet and . Zhao, PSP est une architecture à l'état de l'art actuel consistant non pas à utiliser un encodeur puis un décodeur (type SegNet -UNet) mais à utiliser des blocs multi-résolution c'est-à-dire des mini-blocs encodeur/décodeur. En pratique ces blocs multi-résolution, 2017.

, Une autre famille de réseaux utilise des convolutions "a-trous" (ou des convolutions diluées) pour étendre le champ récepteur, citons par exemple YU et KOLTUN, 2015.

, FIGURE 5.13 -Architecture du CNN FCN-8 LONG et collab, 2015.

, FIGURE 5.14 -Architecture du CNN SegNet, 2015.

. Chapitre-5, . Analyse, . Images-d'ombroscopie, . En, and . Des-méthodes-d, APPRENTISSAGE (a) VT. (b) EMOTION

. Mser,

. Analyse-des-images-d'ombroscopie, . En, and . Des-méthodes-d, Gouttes en combustion" et "Lobe d'alumine", ainsi que la classe "Objets sombres" en "Agglomérats non allumés" et "Particules non allumées". Comme cela a déjà été mentionné, il y a une confusion entre les classes "Propergol, FIGURE 5.18 -Comparaison sur une même image de la méthode VGG+SVM ainsi que les baselines sur les 4 classes du tableau 5.3. CHAPITRE 5

, FIGURE 5.19 -Comparaison de la méthode VGG+SVM avec la VT sur 7 classes

, Étant donné que l'extraction des caractéristiques dans cette première expérience a été réalisée à partir du modèle entraîné sur le CNN VGG, nous avons choisi de commencer par nous intéresser aux extensions de ce modèle, et notamment aux extensions spécifiques à la segmentation sémantique. Seconde approche : fine tuning Pour cela l'architecture SegNet nous a semblé être une bonne option puisqu'elle conserve exactement les mêmes couches d'extraction de caractéristiques que l'architecture VGG. Aussi, nous avons choisi de ne plus seulement entraîner la couche de classification (i.e. le SVM dans la méthode VGG+SVM), mais de réajuster l'ensemble des poids (les couches d'extraction des caractéristiques et de classification) d'un modèle déjà entraîné afin de réaliser la segmentation d'images d'ombroscopie. Cette méthode est appelée "fine tuning", et est couramment utilisée en apprentissage profond car elle permet de s'affranchir de l'apprentissage d'un modèle à partir de zéro, tout en spécialisant un peu plus le modèle à la résolution d'une problématique que dans l'apprentissage par transfert. La figure 5.20 représente deux exemples de segmentation sémantique réalisés avec l'architecture SegNet après une étape de fine tuning sur l'image dont la VT est représentée sur la figure 5.19a. On constate que l'utilisation de l'architecture SegNet n'est pas concluante. En effet, sur l'image 5.20a il semble qu'il y ait un problème de reconstruction de l'image à partir des images de dimensions 256x256, mais aussi sur la segmentation car la forme des régions segmentées ne se retrouve pas dans la VT. L'image 5.20b représente la segmentation sémantique obtenue avec CHAPITRE 5, Les résultats obtenus avec la méthode VGG+SVM ont permis de démontrer la capacité des méthodes d'apprentissage profond, et plus précisément des CNNs à segmenter les gouttes d'aluminium en combustion à l'intérieur des flammes sur les images d'ombroscopie, ce qui nous a poussé à continuer d'explorer cette voie

, Flamme" en fonction du nombre d'epoch pour plusieurs transformation sur les images, FIGURE 5

. Chapitre-5, . Analyse, . Images-d'ombroscopie, . En, and . Des-méthodes-d, Propergol" par la méthode de Chan-Vese apporte un léger gain sur les performances du modèle de segmentation produit par U-Net. Ce gain de performance est visible aussi sur la figure 5.26 qui compare la VT avec le résultat du modèle U-Net entraîné avec l'adaptation J sur les images. L'indication de la segmentation de la région "Propergol" permet d'enlever les ambiguïtés entre la classe "Propergol" et "Agglomérats non allumés" ce qui semble améliorer les performances sur les classes "Flammes" et "Gouttes en combustion

, FIGURE 5.26 -Résultats de U-Net sur 7 classes avec batch normalization et données adaptées

, Celle-ci se découpe en trois soussections, à savoir la sous-section 5.3.1 où sont évaluées les performances de classification de la segmentation sémantique par U-Net à partir des critères présentés dans la sous-section 5.1.2. La sous-section 5.3.2 qui présente un post-traitement améliorant la fiabilité sur l'estimation de la taille des gouttes d'aluminium en combustion. Et enfin la sous-section 5.3.3 où sont présentés les résultats de la mesure de la taille et de la vitesse des gouttes d'aluminium en combustion. Remarque. Pour des raisons de confidentialité, les distributions de taille ont été normalisées à l'aide d'un diamètre représentatif des particules d'aluminium de la composition testée, Estimation de la taille et de la vitesse des gouttes en combustion L'estimation de la taille et la vitesse des gouttes en combustion à partir de la segmentation réalisée par le réseau U-Net est présentée dans cette section

, Ces métriques vont nous permettre d'obtenir un indicateur sur la performance à la fois en termes de détection, classification et représentativité des objets, mais aussi de sélectionner le modèle de segmentation utilisé. En particulier, il est intéressant d'observer l'évolution des critères de performance en fonction du nombre d'epoch pour pouvoir déterminer à partir de combien d'epochs le modèle de segmentation devient stable. Le nombre d'epochs sélectionné doit permettre d'obtenir un modèle qui a suffisamment appris pour obtenir des solutions pertinentes sans être en situation de surapprentissage

. Chapitre-5, . Analyse, . Images-d'ombroscopie, . En, and . Des-méthodes-d, APPRENTISSAGE Sélection et évaluation de la performance du modèle de segmentation sémantique L'évolution des critères de performance en fonction du nombre d'epoch a été calculée avec un échantillonnage de 10 epochs jusqu'à 250 epochs. Pour valider la stabilité de la méthode utilisée ce calcul a été réalisé sur 15 apprentissages, ce qui donne la possibilité d'estimer la variabilité de la performance

, On présente dans la suite l'évolution des performances sur les classes "objets non allumés" et "goutte d'aluminium". L'évolution des critères de performance des autres classes (propergol, flamme et goutte d'aluminium en combustion) est en effet similaire à celles présentées ci-dessous

, trait plein) et l'intervalle de confiance à 95 % (en pointillés) des classes "objets non allumés" et "goutte d'aluminium" sur les 15 apprentissages en fonction du nombre d'epoch. On observe sur la figure 5, Les figures 5.27 et 5.28 représentent respectivement les F 1 -Score moyens

, Ces deux scores n'évoluent plus significativement jusqu'à la fin de l'apprentissage

, 27 -Évolution du F 1 -Score en fonction du nombre d'epoch pour la classe "Objets non allumés". La figure 5.29 représente la moyenne (en trait plein) ainsi que l'écart-type, FIGURE 5

, IoU obtenus sur la classe "goutte d'aluminium" sur les 15 apprentissages en fonction du nombre d'epoch. De la même façon que les F 1 -Score, la moyenne sur l'IoU atteint un plateau d'apprentissage. Celui-ci est situé à 0.6 et

, Objets non allumés" et "Goutte d'aluminium". Les scores de performance ainsi obtenus pour la classe "propergol" sont quasiment parfaits mais cela est dû au fait que le résultat de la segmentation obtenue par les contours actifs est fournie au réseau dans un des canaux d'entrée. Les classes "Flamme, nous avons choisi d'utiliser un modèle entraîné sur 100 epochs qui favorise le F 1 -Score et l'IoU de la classe, vol.858, p.0

, Image expérimentale avec la localisation des gouttes d'aluminium segmentées par U-Net (contours bleus) sans post-traitement (b) Image expérimentale avec la localisation des gouttes d'aluminium segmentées par U-Net (contours bleus) avec post-traitement FIGURE 5.33 -Illustration du post-traitement réalisé sur la segmentation des gouttes d'aluminium. Les 4 détections partielles présentes à l'intérieur des flammes sur la gauche de l'image (a) sont supprimées après le post

, 34 -Histogramme du diamètre normalisé des gouttes d'aluminium de la série Al1a-10b pour différents tris post segmentation avant tracking, FIGURE 5

, Cependant nous conserverons le S 4?connexes égal à une valeur de 0.6 afin de ne pas éliminer de la PDF les gouttes d'aluminium en combustion dont la région flamme segmentée par U-Net n'est pas complètement connexe à la région de la goutte, comme c'est illustré par les gouttes indiquées par les flèches jaunes sur les images 5.35a et 5.35b de la figure 5.35. En revanche le critère S ai r e à un impact plus important sur les PDF de la figure 5.34. La diminution du seuil S ai r e à une valeur de 0.05 (courbe cyan) en conservant le seuil S 4?connexes égal à 0.9, permet d'obtenir une partie des gouttes de diamètre normalisé compris entre 0.5 et 1, mais récupère aussi une partie des détections partielles de gouttes à l'intérieur des flammes que l'on souhaite initialement éliminer

, On parlera alors de "tri post segmentation, Dans la suite du manuscrit, nous avons donc retenu les paramètres du réglage

. Chapitre-5, . Analyse, . Images-d'ombroscopie, . En, and . Des-méthodes-d, APPRENTISSAGE (a) Essai Al1a à 10 bar

, Essai Al1b à 10 bar

, En pointillé noir est représenté la PDF de référence. En rouge : la PDF mesurée avant pistage et sans tri post segmentation. En bleu : la PDF mesurée avant pistage et avec tri post segmentation. En jaune : la PDF mesurée après pistage et sans tri post segmentation, FIGURE 5.37 -PDF en nombre de la taille des gouttes d'aluminium en combustion des essais Al1a-10b et Al1b-10b avant/après post-traitement et avant/après pistage

. Chapitre-5, . Analyse, . Images-d'ombroscopie, . En, and . Des-méthodes-d, APPRENTISSAGE (a) Essai Al1a à 10 bar

, Essai Al1b à 10 bar

, En rouge : le profil moyen de vitesse des gouttes d'aluminium en combustion avant le tri post segmentation. En bleu : le profil moyen de vitesse des gouttes d'aluminium après le tri post segmentation. En jaune : le profil moyen de vitesse des flammes qui ne sont pas associée à des gouttes d, FIGURE 5.38 -Profils moyens de vitesse des gouttes d'aluminium en combustion et flammes des essais Al1a-10b et Al1b-10b

B. Références, V. , A. Kendall, and R. Cipolla, Segnet : A deep convolutional encoderdecoder architecture for image segmentation», 2015.

R. Devillers, C. Erades, D. Lambert, and J. Bellessa, «Mesure et suivi de particules, agglomérats et gouttes en combustion au-dessus de la surface d'un propergol en combustion, p.14, 2014.

M. Everingham, L. Van-gool, C. K. Williams, J. Winn, and A. Zisserman, «The pascal visual object classes (voc) challenge», International journal of computer vision, vol.88, issue.2, pp.303-338, 2010.

K. Fukushima and S. Miyake, «Neocognitron : A self-organizing neural network model for a mechanism of visual pattern recognition», dans Competition and cooperation in neural nets, vol.170, pp.267-285, 1982.

R. Girshick, Fast r-cnn», dans Proceedings of the IEEE international conference on computer vision, vol.171, pp.1440-1448, 2015.

R. Girshick, J. Donahue, T. Darrell, and J. M. , «Rich feature hierarchies for accurate object detection and semantic segmentation, dans Proceedings of the IEEE conference on computer vision and pattern recognition, vol.171, pp.580-587, 2014.

K. He, G. Gkioxari, P. Dollár, and R. Girshick, Mask r-cnn», dans Computer Vision (ICCV, vol.171, pp.2980-2988, 2017.

K. He, X. Zhang, S. Ren, and J. Sun, Deep residual learning for image recognition», dans Proceedings of the IEEE conference on computer vision and pattern recognition, vol.171, pp.770-778, 2016.

J. Hu, L. Shen, and G. Sun, dans Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, vol.171, pp.7132-7141, 2018.

A. Krizhevsky, I. Sutskever, and G. E. Hinton, Imagenet classification with deep convolutional neural networks», dans Advances in neural information processing systems, vol.170, p.172, 2012.

Y. Lecun, L. Bottou, Y. Bengio, and P. Haffner, «Gradient-based learning applied to document recognition, Proceedings of the IEEE, vol.86, pp.2278-2324, 1998.

T. Lin, M. Maire, S. Belongie, J. Hays, P. Perona et al., Microsoft coco : Common objects in context», dans European conference on computer vision, vol.171, pp.740-755, 2014.

J. Long, E. Shelhamer, and T. D. , «Fully convolutional networks for semantic segmentation, dans Proceedings of the IEEE conference on computer vision and pattern recognition, vol.172, pp.3431-3440, 2015.

M. Nugue, R. W. Devillers, A. Chan-hon, G. Tong, . Le et al., Automatic classification of solid-propellant combustion images with convolutional neural network, vol.175, p.177, 2017.
URL : https://hal.archives-ouvertes.fr/hal-01872487

J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, You only look once : Unified, realtime object detection, dans Proceedings of the IEEE conference on computer vision and pattern recognition, vol.171, pp.779-788, 2016.

S. Ren, K. He, R. Girshick, and J. Sun, «Faster r-cnn : Towards real-time object detection with region proposal networks», dans Advances in neural information processing systems, vol.171, pp.91-99, 2015.

O. Ronneberger, P. Fischer, and T. Brox, «U-net : Convolutional networks for biomedical image segmentation, dans International Conference on Medical image computing and computer-assisted intervention, vol.172, p.173, 2015.

O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh et al., International Journal of Computer Vision, vol.115, issue.3, pp.211-252, 2015.

J. Shotton, M. Johnson, and R. Cipolla, Semantic texton forests for image categorization and segmentation», dans Computer vision and pattern recognition, CVPR 2008. IEEE Conference on, pp.1-8, 2008.

K. Simonyan and A. Zisserman, «Very deep convolutional networks for large-scale image recognition», vol.171, p.172, 2014.

C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed et al., Going deeper with convolutions», dans Proceedings of the IEEE conference on computer vision and pattern recognition, pp.1-9, 2015.

J. R. Uijlings, K. E. Van-de, T. Sande, A. W. Gevers, and . Smeulders, «Selective search for object recognition, International journal of computer vision, vol.104, issue.2, pp.154-171, 2013.

F. Yu and V. Koltun, Multi-scale context aggregation by dilated convolutions, 2015.

H. Zhao, J. Shi, X. Qi, X. Wang, and J. J. , Pyramid scene parsing network», dans IEEE Conf. on Computer Vision and Pattern Recognition (CVPR), vol.172, pp.2881-2890, 2017.