Quantification de l'incertitude

Définition

La quantification de l’incertitude (UQ) est la science de la quantification, de la caractérisation et de la gestion de l’incertitude dans les systèmes informatiques et industriels.

La quantification de l’incertitude cherche à résoudre les problèmes associés à l’intégration de la variabilité du monde réel et du comportement probabiliste dans l’ingénierie et l’analyse des systèmes. Les simulations et les tests répondent à la question : que se passe-t-il lorsque le système est utilisé avec un ensemble de données ? La quantification de l’incertitude enrichit cette question : que se passe-t-il probablement lorsque le système est soumis à un ensemble e données incertaines et variables ?

Historique
La quantification de l’incertitude est issue des mathématiques, des statistiques et de l’ingénierie. Puiser dans ces trois domaines a abouti à un ensemble de méthodes indépendantes du système qui ne nécessitent aucune connaissance du fonctionnement interne du système étudié. Ces puissantes méthodes UQ ne nécessitent que des informations sur le comportement des entrées et des sorties. Ainsi, une méthode qui fonctionne sur un système d’ingénierie peut être également applicable à un problème financier qui présente un comportement similaire. Cela permet à de nombreuses industries de bénéficier des avancées de l’UQ.

Pourquoi la quantification de l’incertitude ?

Les méthodes UQ sont rapidement adoptées par les ingénieurs et les professionnels de la modélisation dans un large éventail d’industries car elles peuvent répondre à de nombreuses questions qui étaient auparavant sans réponse.

Ces méthodes permettent de :

  • Comprendre les incertitudes inhérentes à presque tous les systèmes
  • Prévoir les réponses du système suite à des entrées incertaines
  • Quantifier la confiance dans les prévisions
  • Trouver des solutions optimisées qui sont stables pour une large gamme d’entrées
  • Réduire le temps de développement, les coûts de prototypage et les pannes inattendues
  • Mettre en œuvre des processus de conception probabiliste

Pourquoi maintenant ?

À mesure que la puissance de calcul a augmenté et que les simulations et les tests sont devenus plus sophistiqués, il est devenu possible de faire des prévisions précises pour les véritables systèmes industriels. Aujourd’hui, le défi en conception technique est celui de la prévision rapide des comportements des systèmes lorsqu’ils sont soumis à des entrées incertaines. Les méthodes basées sur les simulations Monte-Carlo nécessitent de générer et d’évaluer un grand nombre de variations du système. Ces méthodes deviennent prohibitives à utiliser pour des problèmes de grandes échelles. Des méthodes plus récentes, telles que celles incorporées dans SmartUQ, ont rendu l’UQ plus facile pour les petits systèmes et réellement faisable pour les grands. Il n’y a jamais eu de meilleur moment pour commencer à inclure l’incertitude dans votre processus d’ingénierie.

Sources et types d’incertitudes

Qu’est-ce que l’incertitude ?

L’incertitude fait partie intégrante du monde réel. Deux expériences physiques ne produisent jamais exactement les mêmes valeurs de sortie et de nombreuses entrées pertinentes peuvent être inconnues ou non mesurables. L’incertitude affecte presque tous les aspects de la modélisation et de la conception d’ingénierie. Les ingénieurs traitent depuis longtemps les erreurs de mesure, les propriétés matérielles incertaines en incluant des facteurs de sécurité et en testant de manière approfondie les conceptions. En comprenant et en quantifiant plus profondément les sources d’incertitude, il est possible de prendre de meilleures décisions avec des niveaux de confiance connus.

Types d’incertitudes
Les incertitudes sont généralement classées en deux catégories : aléatoires et épistémiques.

Aléatoire

L’incertitude aléatoire est une incertitude qui ne peut pas être réduite en collectant plus d’informations. Ainsi, elle peut être considérée comme inhérente à un système et les paramètres ayant une incertitude aléatoire sont représentés par des distributions de probabilités.

Epistémique

L’incertitude épistémique est une incertitude qui résulte d’un manque d’informations que nous pourrions théoriquement connaître mais auxquelles nous n’avons pas accès. Ainsi, l’incertitude épistémique pourrait éventuellement être réduite en recueillant les bonnes informations, mais ce n’est souvent pas le cas car coûteux ou difficile à faire.

Sources fréquentes d’incertitude dans les simulations et les essais

Le diagramme ci-dessous montre l’utilisation d’un outil par différents opérateurs. La variation entre les différents outils utilisés par un seul opérateur se traduit par une distribution pour chaque opérateur. Il existe également des variations importantes entre les opérateurs.

Les incertitudes dans la simulation et les essais apparaissent dans les conditions aux limites, les conditions initiales, les paramètres du système, les modèles et les calculs eux-mêmes. Ces incertitudes peuvent être décrites en quatre catégories : données en entrée incertaines, forme du modèle et incertitude des paramètres, incertitude des calculs numériques et incertitude des essais physiques.

Données en entrée incertaines

Toute entrée d’un système, y compris les conditions initiales et les conditions aux limites, peut être sujette à l’incertitude. Ces entrées peuvent varier de manière importante, enregistrable, mais inconnue. C’est souvent le cas avec les conditions de fonctionnement, les géométries et configurations de conception, les conditions météorologiques et les interventions de l’opérateur humain. Les entrées incertaines peuvent également être théoriquement constantes ou suivre des relations connues, mais avoir une certaine incertitude inhérente. C’est souvent le cas avec les entrées mesurées, les tolérances de fabrication et les variations des propriétés des matériaux.

Forme du modèle et incertitude des paramètres

L’incertitude sur la forme du modèle peut être représentée par des fonctions de discrépance. Ces fonctions donnent la différence prévue entre les résultats modélisés et physiques, en incluant l’incertitude inhérente aux deux.

Tous les modèles sont des approximations de la réalité. L’incertitude de modélisation est le résultat d’erreurs, d’hypothèses et d’approximations faites lors du choix du modèle. Cela peut être décomposé en incertitude sur la forme de modèle, c’est-à-dire l’incertitude sur la capacité des modèles à capturer les comportements pertinents du système, et l’incertitude des paramètres, c’est-à-dire l’incertitude sur les paramètres du modèle.

En utilisant la gravité comme exemple, le modèle newtonien de gravité comportait des erreurs dans la forme du modèle qui étaient corrigées par la relativité générale. Ainsi, il existe une incertitude de forme de modèle dans les prévisions faites à l’aide du modèle newtonien de gravité. Les paramètres de ces deux modèles, tels que l’accélération gravitationnelle, sont également sujets à l’incertitude et à l’erreur. Cette incertitude est souvent le résultat d’erreurs dans les mesures ou les estimations des propriétés physiques et peut être réduite en utilisant l’étalonnage pour ajuster les paramètres pertinents à mesure que davantage d’informations deviennent disponibles.

Incertitude des calculs numériques

Afin d’exécuter des simulations et de résoudre de nombreux modèles mathématiques, il est nécessaire de simplifier ou d’approximer les équations sous-jacentes, ce qui introduit des erreurs de calcul telles que la troncature et l’erreur de convergence. Pour le même système et modèle, ces erreurs varient entre différents solveurs numériques et dépendent des approximations et des paramètres utilisés dans chaque solveur. D’autres erreurs numériques sont introduites par les limitations de la précision de la machine et les erreurs d’arrondis inhérentes aux systèmes numériques.

Incertitude des essais physiques

La variation entre des tests de défaillance identiques démontre l’incertitude inhérente aux systèmes physiques.

Dans les tests physiques, l’incertitude provient d’entrées non contrôlées ou inconnues, d’erreurs de mesure, de phénomènes aléatoires et de limitations dans la conception et la mise en œuvre des tests. La présence de ces incertitudes fait que les des données expérimentales sont bruitées et nécessite une réplication des expériences scientifiques afin de réduire les effets de l’incertitude sur la mesure souhaitée.

Quantification vs propagation

En plus de propager les incertitudes des entrées, la quantification de l’incertitude fournit un cadre plus complet intégrant plusieurs techniques d’analyse :

  • Elaboration de modèles prédictifs : remplace les simulations d’ingénierie complexes.
  • Analyse de sensibilité : classe les entrées selon leur capacité à influencer les résultats.
  • Etalonnage statistique : gère l’écart et l’incertitude entre le modèle de simulation et les tests physiques.