Télécharger le fichier pdf d’un mémoire de fin d’études
Correction d’une simulation
La correction d’un produit de simulation est le résultat de l’activité de vérificia-tion. Ce critère statue sur la conformité du simulateur par rapport à ses spécifica-tions sur la preuve que le simulateur est dégagé de toutes erreurs d’exécution (free of run-time error). Ce critère s’adresse aux modèles et à la plateforme d’exécution.
Au niveau des modèles, il s’agit de s’assurer que ceux-ci satisfont les contraintes héritées de la physique. Par exemple, s’assurer que la masse est toujours positive ou nulle. Ces règles sont plus ou moins simples et plus ou moins connues. Elles méritent d’être suscitées par les experts du domaine afin que les développeurs du modèle puissent les vérifier plus systématiquement.
Au niveau de la plateforme d’exécution, il s’agit de s’assurer que celle-ci n’in-troduit pas de biais dans l’observation des comportements qui sont encodés par les modèles. Cela signifie que la plateforme d’exécution doit respecter la sémantique opérationnelle des modèles. Par exemple, l’exécution d’un modèle peut être distri-buée sur diverses machines. Ces machines ne partagent pas la même horloge alors que le modèle fut conçu autour d’une horloge globale. Il s’agit donc de vérifier que les contraintes de temps entre les éléments du modèle sont préservées par l’implé-mentation. Cela signifie également que les calculs numériques doivent être réalisés avec une certaine exactitude en fonction des méthodes de résolution numérique uti-lisées dans le modèle. Enfin, cela signifie que la plateforme d’exécution doit être suffisamment robuste (pas de « crash » de division par zéro, dépassements,…).
Validité d’une simulation
La validité d’un produit de simulation est le résultat de l’activité de validation. Ce critère statue sur la capacité du simulateur et du cadre expérimental à répondre aux questions posées par l’utilisateur pour résoudre ses problèmes. Une attention particulière est portée sur la notion de fidélité qui permet de démontrer que le modèle et son comportement sont une représentation adequate du système réel et de son comportement à l’égard d’un objectif d’utilisation d’un produit de M&S [Brade 00].
Le premier aspect de ce critère est de déterminer si le simulateur (modèle exécutable et plateforme d’exécution) permet de réaliser les tests qui sont spéci-fiés pour atteindre un objectif. Nous parlons communément de cadre expérimental [Zeigler 00b]. Au regard des requêtes du cadre expérimental, cela revient à détermi-ner si le simulateur offre : (1) les moyens de contrôlabilité permettant de stimuler les modèles et (2) les moyens d’observabilité permettant l’observation des effets des stimuli d’entrée sur le système. Les problèmes de contrôlabilité et d’observabilité consistent à fournir au développeur des modèles d’environnement les spécifications des fonctions ou des cas d’utilisation requis par un cadre expérimental. Ces spé-cifications définissent les conditions d’interfaçage et les abstractions autorisées. La première difficulté est bien souvent inhérente aux spécifications trop vagues, no-tamment lorsque le cadre expérimental est peu connu. Nos études préliminaires ont montré que l’utilisateur de la simulation n’est pas capable de définir le cadre expéri-mental ; il préfèrera se replier sur la formulation « comme dans l’avion ». Nous voyons bien là la nécessité d’établir un guide méthodologique ou un cadre de travail facili-tant la spécification d’un cadre expérimental. La seconde difficulté est qu’un modèle d’environnement peut être utilisé dans différentes simulations avec des cadres expé-rimentaux différents. Par exemple, un même modèle peut être utilisé pour valider deux systèmes d’intérêt différents. Les conditions d’interfaçage ne peuvent pas être constamment imposées par chaque cadre expérimental spécifique. Donc, les déve-loppeurs des modèles d’environnement doivent spécifier le domaine d’usage de leur modèle. Le domaine d’usage décrit les capacités, les limitations d’un modèle de si-mulation. Il y a encore une fois un besoin de clarifier et d’homogénéiser cette notion de domaine d’usage d’un modèle.
Le deuxième aspect concerne la pertinence du choix du modèle au regard des objectifs à atteindre. Considérons que le simulateur permet la stimulation et l’ob-servation plannifié par le cadre expérimental tel que nous l’avons expliqué ci-dessus.
Certains modèles ne décrivent qu’une connaissance partielle du système à un mo-ment donné de son développement et d’autres sont délibéremment simplifiés pour satisfaire plus efficacement les objectifs d’utilisation. Pour chaque modèle simplifié, il faut vérifier la validité de l’abstraction : la simulation d’un modèle abstrait et la si-mulation d’un modèle de référence ou l’expérimentation du système réel conduisent au même jugement pour l’objectif considéré. De plus lorsque l’on compose des mo-dèles, il faut également vérifier si la composition des abstractions est valide. La pratique la plus commune pour gérer ce problème est de comparer les résultats de l’exécution du modèle abstrait avec ceux du modèle de référence. Ceci implique qu’il existe un modèle de référence. Il serait donc utile de caractériser les procédures d’abstraction valides indépendamment d’un modèle de référence.
Enfin, il faut s’assurer de l’efficacité du cadre expérimental à satisfaire les objec-tifs d’utilisation. Ceci se traduit par la vérification qu’un cadre expérimental assure une exploration suffisante du modèle. Si ce n’est pas le cas, cela peut signifier soit que les exécutions non explorées ne sont pas pertinentes et donc que le modèle est trop complexe pour l’objectif, soit que les hypothèses du cadre expérimental sont érronées.
Efficacité d’une simulation
L’efficacité d’une simulation est un problème othogonal à la validité et à la cor-rection. Les mesures d’efficacité sont des critères qui permettent de qualifier l’utili-sation d’un produit de simulation. Par exemple, ces critères peuvent être le temps nécessaire au développement et à l’utilisation du produit de simulation ou le coût et la criticité de cette activité de développement pour atteindre la réussite du projet. L’analyse d’efficacité peut permettre de comparer différents produits de simulation valides pour atteindre un objectif d’utilisation, mais ne peut en aucun cas remplacer les analyses précédentes de correction et de validité.
Les mesures qui peuvent permettre de caractériser plus finement les problèmes d’efficacité sont :
– Avoir un modèle à disposition : il est préférable d’avoir un modèle simplifié rapidement plutôt que d’avoir un modèle complexe trop tard. Cependant, réutiliser un modèle détaillé déjà existant peut dans certain cas être plus satisfaisant que de développer un nouveau modèle.
– Intégrer les modèles sur une plateforme d’exécution : l’intégration de modèles trop détaillés rend délicate leur intégration.
– Conception des scénarios de simulation : si la granularité des interfaces du produit de M&S ne sont pas adaptés, la conception des scénarios est com-plexifiée par l’affectation de valeurs à des variables sans intérêt pour l’objectif d’utilisation.
Conclusion sur les critères
La description d’une qualité d’un produit de simulation en trois méta-critères et les acteurs qui y ont été associés nous ont mené à positionner notre étude essentiel-lement sur le problème de validité. La correction n’est pas un critère spécifique à la M&S. C’est une activité classique d’ingénierie système ou de génie logiciel. L’effica-cité est souvent présentée comme un critère de consolidation de la validité pour une prise de décision argumentée sur l’utilisation d’un produit de simulation.
Démarche générale d’évaluation
Dans un grand nombre d’organisations, la documentation n’est pas considérée comme une partie de l’activité de conception mais plutôt comme une tâche addition-nelle, quelque peu désagréable, qui doit être remplie pour des raisons contractuelles ou pour répondre à des normes. Une partie de l’évaluation repose sur les constituants de la simulation et leurs relations. Les aspects des constituants sont variés, ce qui rend difficile l’évaluation de leur compatibilité. Et, parce que les produits de simu-lation sont des produits complexes, ils nécessitent un effort de documentation. Si le processus de validité implique la collecte d’information afin d’améliorer la documen-tation d’une simulation, il est impératif de réutiliser et d’adapter les documents ou formalismes existant et d’automatiser autant que possible le processus d’extraction d’information à partir des documents existants, plutôt que d’allourdir le processus de développement et introduire de nouveaux documents ou formalismes spécifiques à l’évaluation des produits de simulation. Puisque notre étude s’inscrit dans le cadre de l’ingénierie des systèmes, le processus d’évaluation doit s’intégrer dans ce cadre, et donc se servir des documents issus des standards d’ingénierie système pour la collecte d’information et la production des documents.
Le meilleur moyen de garder un certain degré d’automatisation est de travailler avec des concepts formels. Il est nécessaire de définir des formulaires de documen-tation, basés sur des formalismes pour décrire les constituants de M&S. Ces forma-lismes joueront le rôle de médiateur de la mise en correspondance des constituants supportant ainsi le processus de V&V de la M&S. Nous proposons la construction de formats standards de description des constituants d’une M&S et des critères d’accep-tation afin de clairement et structurellement spécifier les concepts liés à l’évaluation et sous-jacents à chaque constituant. Il s’agit ensuite de garnir ces fiches standards par extraction et/ou collecte d’information à partir de documents existants et de l’analyse des acteurs de la M&S.
La théorie de la M&S [Zeigler 00b] présente des concepts avancés sur les consti-tuants d’une simulation et leurs relations. Elle propose notamment une spécification formelle du cadre expérimental. Elle permet également de fournir une description d’un modèle tout en se demandant si ce modèle reproduit correctement le comporte-ment dynamique du système selon un point de vue donné offrant ainsi un cadre aux problèmes d’abstractions et de validité d’une abstraction. Ce cadre formel est sup-porté par le formalisme DEVS (Discrete Event System Specification) utilisé comme langage de spécification indépendant d’une plateforme d’exécution. Ainsi, nous pro-posons d’utiliser la théorie de la M&S pour la formalisation des constituants. Les critères de compatibilité seront établis sur les artefacts de ce formalisme.
|
Table des matières
Introduction générale
1 Contexte et objectifs de l’étude
1.1 La simulation dans l’Ingénierie Système
1.1.1 Ingénierie Système
1.1.2 Utilisation de la M&S dans l’Ingénierie Système
1.2 Objectif de l’étude
1.2.1 Correction d’une simulation
1.2.2 Validité d’une simulation
1.2.3 Efficacité d’une simulation
1.2.4 Conclusion sur les critères
1.3 Démarche générale d’évaluation
2 Caractérisation du problème
2.1 État de l’art en matière de V&V de M&S
2.1.1 M&S : Une abstraction de la réalité
2.1.2 Vérification, Validation et Accréditation d’une M&S
2.1.3 Le modèle conceptuel
2.2 Cadre méthodologique d’élaboration de modèles et de simulations
2.2.1 Théorie de la M&S
2.3 Description du contexte industriel
2.3.1 Utilisation de la simulation dans le développement de l’avion
2.3.2 Périmètre de l’étude
2.4 Formulation du problème
2.4.1 Caractérisation d’une application de M&S
2.4.2 Caractérisation de la validité d’une M&S
3 Caractérisation de l’abstraction d’une M&S
3.1 État de l’art en matière d’abstraction
3.1.1 Taxonomie d’abstraction de D.S. Weld
3.1.2 Taxonomie des technique d’abstraction de B.P. Zeigler
3.1.3 Taxonomie des techniques d’abstraction de F.K. Frantz
3.2 Taxonomie pour le domaine des systèmes embarqués
3.2.1 Dimension architecture
3.2.2 Dimension donnée
3.2.3 Dimension calcul
3.2.4 Temps
3.2.5 Récapitulatif de la taxonomie
4 Propriétés et critères formels d’évaluation
4.1 État de l’art en vue d’une formalisation du problème
4.1.1 Ingénierie basée composant
4.1.2 Formalismes de spécification des systèmes
4.2 Formalisation des règles de compatibilité
4.2.1 Définition de la mise en correspondance entre un SOU et un SDU
4.2.2 Critères d’applicabilité
5 Méthodologie d’évaluation et illustration
5.1 Proposition d’une méthodologie d’évaluation
5.1.1 La démarche d’ingénierie système
5.1.2 La démarche de développement d’un modèle conceptuel
5.2 Cas d’application
5.2.1 Présentation du système
5.2.2 Spécification du SOU
5.2.3 Spécification du SDU
5.2.4 Validation de la structure et des données
5.2.5 Validation des calculs
Conclusion générale
Bibliographie
Télécharger le rapport complet
