Concepts de base des modèles déterministes et stochastiques. Modèles déterministes et stochastiques

La modélisation est l'un des outils les plus importants dans Vie moderne quand ils veulent prévoir l’avenir. Et ce n’est pas surprenant, car la précision de cette méthode est très élevée. Voyons de quoi il s'agit dans cet article modèle déterministe.

informations générales

Les modèles déterministes de systèmes ont la particularité de pouvoir être étudiés analytiquement s'ils sont suffisamment simples. Dans le cas contraire, lorsqu'on utilise un nombre important d'équations et de variables, des calculateurs électroniques peuvent être utilisés à cet effet. De plus, l'assistance informatique se résume généralement uniquement à les résoudre et à trouver des réponses. De ce fait, il est nécessaire de changer les systèmes d’équations et d’utiliser une discrétisation différente. Et cela entraîne un risque accru d’erreurs de calcul. Tous les types de modèles déterministes se caractérisent par le fait que la connaissance des paramètres sur un certain intervalle étudié permet de déterminer pleinement la dynamique de développement des indicateurs connus au-delà des frontières.

Particularités

Modélisation factorielle

Des références à cela peuvent être vues tout au long de l’article, mais nous n’avons pas encore discuté de ce dont il s’agit. La modélisation factorielle implique que les principales dispositions pour lesquelles une comparaison quantitative est nécessaire soient identifiées. Pour atteindre les objectifs affichés, la recherche transforme la forme.

Si un modèle strictement déterministe comporte plus de deux facteurs, alors il est dit multifactoriel. Son analyse peut être effectuée à l'aide diverses techniques. Donnons à titre d'exemple. Dans ce cas, elle considère les tâches assignées du point de vue de modèles préétablis et élaborés a priori. Le choix parmi eux s'effectue en fonction de leur contenu.

Pour construire un modèle de haute qualité, il est nécessaire d'utiliser des connaissances théoriques et études expérimentales essence processus technologique et ses relations de cause à effet. C’est précisément le principal avantage des sujets que nous étudions. Les modèles déterministes permettent des prévisions précises dans de nombreux domaines de notre vie. Grâce à leurs paramètres de qualité et à leur polyvalence, ils sont devenus si répandus.

Modèles déterministes cybernétiques

Ils nous intéressent en raison des processus transitoires basés sur l'analyse qui se produisent avec tout changement, même le plus insignifiant, des propriétés agressives. environnement externe. Pour la simplicité et la rapidité des calculs le status quo cas est remplacé par un modèle simplifié. L’important est qu’il satisfasse tous les besoins fondamentaux.

Les performances du système de contrôle automatique et l'efficacité des décisions qu'il prend dépendent de l'unité de tous les paramètres nécessaires. Dans ce cas, il faut résoudre le problème suivant : plus d’informations sont collectées, plus la probabilité d’erreur est élevée et plus le temps de traitement est long. Mais si vous limitez votre collecte de données, vous pouvez vous attendre à un résultat moins fiable. Il faut donc trouver juste milieu, ce qui vous permettra d'obtenir des informations suffisamment précises, et en même temps elles ne seront pas inutilement compliquées par des éléments inutiles.

Modèle déterministe multiplicatif

Il est construit en divisant les facteurs en plusieurs. A titre d'exemple, on peut considérer le processus de formation du volume de produits manufacturés (PP). Donc, pour cela, vous avez besoin de main d'œuvre (PC), de matériaux (M) et d'énergie (E). Dans ce cas, le facteur PP peut être divisé en un ensemble (RS;M;E). Cette option reflète la forme multiplicative du système factoriel et la possibilité de sa division. Dans ce cas, vous pouvez utiliser les méthodes de transformation suivantes : expansion, décomposition formelle et allongement. La première option a trouvé une large application en analyse. Il peut être utilisé pour calculer la performance d’un employé, etc.

Lors de l'allongement, une valeur est remplacée par d'autres facteurs. Mais au final, ce devrait être le même numéro. Un exemple d'allongement a été discuté ci-dessus. Il ne reste plus que la décomposition formelle. Cela implique le recours à l'allongement du dénominateur du modèle factoriel d'origine en raison du remplacement d'un ou plusieurs paramètres. Prenons cet exemple : nous calculons la rentabilité de la production. Pour ce faire, le montant du bénéfice est divisé par le montant des coûts. En multipliant, au lieu d'une valeur unique, nous divisons par les dépenses totalisées pour le matériel, le personnel, les taxes, etc.

Probabilités

Oh, si seulement tout se passait exactement comme prévu ! Mais cela arrive rarement. Ainsi, dans la pratique, déterministe et Que dire de ce dernier sont souvent utilisés ensemble ? Leur particularité est qu’ils prennent également en compte diverses probabilités. Prenons par exemple ce qui suit. Il y a deux états. La relation entre eux est très mauvaise. Un tiers décide d’investir ou non dans des entreprises dans l’un des pays. Après tout, si une guerre éclate, les profits en souffriront grandement. Ou vous pouvez donner un exemple de construction d'une usine dans une zone à haute activité sismique. Ils travaillent ici facteurs naturels, qui ne peut être pris en compte avec précision, cela ne peut se faire qu'approximativement.

Conclusion

Nous avons regardé quels sont les modèles analyse déterministe. Hélas, pour bien les comprendre et pouvoir les appliquer dans la pratique, il faut très bien étudier. Base théorique a déjà. Également dans le cadre de l'article, séparez exemples simples. Ensuite, il est préférable de suivre la voie consistant à compliquer progressivement le matériel de travail. Vous pouvez simplifier un peu votre tâche et commencer à étudier logiciel, qui peut effectuer des simulations appropriées. Mais quel que soit le choix, il est toujours nécessaire de comprendre les bases et d’être capable de répondre aux questions sur quoi, comment et pourquoi. Vous devez d'abord apprendre à sélectionner les données d'entrée correctes et à sélectionner actions nécessaires. Les programmes pourront alors accomplir avec succès leurs tâches.

Les modèles de systèmes dont nous avons parlé jusqu'à présent étaient déterministes (certains), c'est-à-dire la définition de l’influence d’entrée déterminait de manière unique la sortie du système. Cependant, dans la pratique, cela arrive rarement : la description systèmes réels l’incertitude est généralement inhérente. Par exemple, pour un modèle statique, l'incertitude peut être prise en compte en écrivant la relation (2.1)

où est l'erreur normalisée par rapport à la sortie du système.

Les raisons de l’incertitude sont variées :

– erreurs et interférences dans les mesures des entrées et sorties du système (erreurs naturelles) ;

– l'inexactitude du modèle du système lui-même, qui oblige à introduire artificiellement une erreur dans le modèle ;

– informations incomplètes sur les paramètres du système, etc.

Parmi de diverses façons clarification et formalisation de l’incertitude plus grande distribution a reçu une approche chaotique (probabiliste), dans laquelle des quantités incertaines sont considérées comme aléatoires. Développement d'appareils conceptuels et informatiques de théorie des probabilités et statistiques mathématiques vous permet de donner des recommandations précises sur le choix de la structure du système et l'évaluation de ses paramètres. La classification des modèles stochastiques de systèmes et des méthodes pour leur étude est présentée dans le tableau. 1.4. Les conclusions et recommandations sont basées sur l'effet de moyenne : écarts aléatoires les résultats des mesures d'une certaine quantité à partir de sa valeur attendue s'annulent lorsqu'ils sont additionnés, et la moyenne arithmétique grand nombre Les mesures s'avèrent proches de la valeur attendue. Formulations mathématiques cet effet est donné par la loi grands nombres et le théorème central limite. La loi des grands nombres stipule que si ce sont des variables aléatoires avec une espérance mathématique (valeur moyenne) et une variance, alors



à suffisamment grand N. Cela indique la possibilité fondamentale de faire une évaluation arbitrairement précise basée sur des mesures. Le théorème central limite, clarifiant (2.32), stipule que

où est une variable aléatoire standard normalement distribuée

Puisque la distribution de la grandeur est bien connue et tabulée (par exemple, on sait que la relation (2.33) permet de calculer l'erreur d'estimation. Supposons, par exemple, que vous souhaitiez trouver à quel nombre de mesures l'erreur d'estimation leur espérance mathématique avec une probabilité de 0,95 sera inférieure à 0,01 , si la variance de chaque mesure est de 0,25. De (2.33) nous obtenons que l'inégalité doit être vérifiée. N> 10000.

Bien entendu, les formulations (2.32), (2.33) peuvent recevoir plus regard strict, et cela peut être facilement réalisé en utilisant les concepts de convergence probabiliste. Des difficultés surgissent lorsque l’on tente de tester les conditions de ces déclarations strictes. Par exemple, dans la loi des grands nombres et centrale théorème limite l'indépendance des mesures individuelles (implémentations) est requise Variable aléatoire et la finitude de sa variance. Si ces conditions ne sont pas respectées, les conclusions peuvent également être violées. Par exemple, si toutes les mesures coïncident : alors, bien que toutes les autres conditions soient remplies, il ne peut être question de faire une moyenne. Autre exemple : la loi des grands nombres n'est pas valable si les variables aléatoires sont distribuées selon la loi de Cauchy (avec une densité de distribution qui n'a pas de valeur finie). espérance mathématique et la dispersion. Mais une telle loi existe dans la vie ! Par exemple, selon Cauchy, l'éclairage intégral des points d'un rivage rectiligne est distribué par un projecteur à rotation uniforme situé en mer (sur un navire) et allumé moments aléatoires temps.

Mais aussi grandes difficultés demande de vérifier la validité de l'emploi même du terme « aléatoire ». Qu'est-ce qu'une variable aléatoire ? Événement aléatoire etc. On dit souvent qu'un événement UN par hasard, si à la suite de l'expérience cela peut se produire (avec probabilité R) ou ne se produira pas (avec une probabilité de 1- R). Mais tout n’est pas si simple. Le concept même de probabilité ne peut être associé aux résultats des expériences qu'à travers la fréquence de son apparition dans un certain nombre (séries) d'expériences : , où N / A- le nombre d'expériences dans lesquelles l'événement s'est produit, N- nombre total; expériences. Si les chiffres sont suffisamment grands N s'approchent de certains nombre constant r A :

cet événement UN peut être appelé aléatoire, et le nombre R.- sa probabilité. Dans ce cas, les fréquences observées dans différentes séries d'expériences doivent être proches les unes des autres (cette propriété est appelée stabilité statistique ou homogénéité). Ce qui précède s'applique également au concept de variable aléatoire, puisqu'une valeur est aléatoire si les événements sont aléatoires (et<£<Ь} для любых чисел UN,b. Les fréquences d'apparition de tels événements dans de longues séries d'expériences devraient se regrouper autour de certaines valeurs constantes.

Ainsi, pour que l’approche stochastique soit applicable, les conditions suivantes doivent être remplies :

1) l'ampleur massive des expériences menées, c'est-à-dire un nombre assez important ;

2) la répétabilité des conditions expérimentales, justifiant la comparaison des résultats de différentes expériences ;

3) stabilité statistique.

L’approche stochastique ne peut évidemment pas être appliquée à des expériences isolées : des expressions telles que « la probabilité qu’il pleuve demain », « avec une probabilité de 0,8, le Zenit remportera la coupe », etc. n’ont aucun sens. Mais même si les expériences sont répandues et reproductibles, il se peut qu’il n’y ait pas de stabilité statistique, et vérifier cela n’est pas une tâche facile. Les estimations connues de l'écart admissible de fréquence par rapport à la probabilité sont basées sur le théorème central limite ou l'inégalité de Chebyshev et nécessitent des hypothèses supplémentaires sur l'indépendance ou la faible dépendance des mesures. La vérification expérimentale de la condition d’indépendance est encore plus difficile, car elle nécessite des expériences supplémentaires.

La méthodologie et les recettes pratiques pour appliquer la théorie des probabilités sont présentées plus en détail dans le livre instructif de V.N. Tutubalin, dont une idée est donnée par les citations ci-dessous :

« Il est extrêmement important d’éradiquer l’idée fausse qui circule parfois parmi les ingénieurs et les naturalistes qui ne sont pas suffisamment familiers avec la théorie des probabilités, selon laquelle le résultat de toute expérience peut être considéré comme une variable aléatoire. Dans les cas particulièrement graves, cela s’accompagne de la croyance en la loi normale de distribution, et si les variables aléatoires elles-mêmes ne sont pas normales, alors ils croient que leurs logarithmes sont normaux.

« Selon les concepts modernes, le champ d'application des méthodes de la théorie des probabilités est limité aux phénomènes caractérisés par la stabilité statistique. Cependant, tester la stabilité statistique est difficile et toujours incomplet, et donne souvent une conclusion négative. En conséquence, dans des domaines entiers de la connaissance, par exemple en géologie, une approche est devenue la norme dans laquelle la stabilité statistique n'est pas du tout vérifiée, ce qui conduit inévitablement à de graves erreurs. De plus, la propagande cybernétique entreprise par nos éminents scientifiques a donné (dans certains cas !) un résultat quelque peu inattendu : on croit désormais que seule une machine (et non une personne) est capable d'obtenir des résultats scientifiques objectifs.

Dans de telles circonstances, il est du devoir de chaque enseignant de propager encore et encore cette vieille vérité que Pierre Ier a essayé (sans succès) d'inculquer aux marchands russes : qu'il faut faire du commerce honnêtement, sans tromperie, car en fin de compte, c'est plus rentable pour soi-même."

Comment construire un modèle d'un système s'il y a une incertitude dans le problème, mais que l'approche stochastique n'est pas applicable ? Ci-dessous, nous décrivons brièvement l'une des approches alternatives, basée sur la théorie des ensembles flous.


Nous vous rappelons qu'une relation (la relation entre et) est un sous-ensemble d'un ensemble. ceux. un ensemble de paires R=(( X, à)), Où,. Par exemple, une connexion fonctionnelle (dépendance) peut être représentée comme une relation entre des ensembles, y compris des paires ( X, à), Pour qui.

Dans le cas le plus simple, un R est une relation d'identité si.

Exemples 12 à 15 dans le tableau. 1. 1 ont été inventés en 1988 par un élève de la 86e année de l'école 292 M. Koroteev.

Le mathématicien remarquera ici, bien sûr, que le minimum dans (1.4), à proprement parler, peut ne pas être atteint et que dans la formulation de (1.4) il est nécessaire de remplacer rnin par inf (« infimum » est l'infimum exact du ensemble). Cependant, cela ne changera pas la situation : la formalisation dans ce cas ne reflète pas l'essence de la tâche, c'est-à-dire mal effectué. À l'avenir, afin de ne pas « effrayer » l'ingénieur, nous utiliserons la notation min, max ; en gardant à l'esprit que, si nécessaire, ils devraient être remplacés par les informations plus générales, sup.

Ici, le terme « structure » est utilisé dans un sens un peu plus étroit, comme dans la sous-section. 1.1, et désigne la composition des sous-systèmes du système et les types de connexions entre eux.

Un graphe est une paire ( g, R.), où G=(g 1 ... g n) est un ensemble fini de sommets, a - relation binaire avec G. Si, alors et seulement si, alors le graphe est appelé non orienté, sinon orienté. Les paires sont appelées arcs (arêtes), et les éléments de l'ensemble g- les sommets du graphe.

C'est-à-dire algébrique ou transcendantal.

À proprement parler, un ensemble dénombrable est une certaine idéalisation qui ne peut être réalisée pratiquement en raison de la taille finie des systèmes techniques et des limites de la perception humaine. De tels modèles idéalisés (par exemple, l'ensemble des nombres naturels N=(1, 2,...)) est logique à introduire pour des ensembles finis, mais avec un nombre d'éléments préalablement illimité (ou inconnu).

Formellement, le concept d'opération est un cas particulier du concept de relation entre éléments d'ensembles. Par exemple, l'opération d'addition de deux nombres spécifie une relation ternaire R : trois des nombres (x, y, z) z) appartient à la relation R.(on écrit (x,y,z)), si z = x+y.

Nombre complexe, argument des polynômes UN(), DANS().

Cette hypothèse se vérifie souvent dans la pratique.

Si la quantité est inconnue, alors il faut la remplacer dans (2.33) par l’estimation où Dans ce cas, la quantité ne sera plus distribuée normalement, mais selon la loi de Student, qui est pratiquement impossible à distinguer de la normale.

Il est facile de voir que (2.34) est un cas particulier de (2.32), quand on considère si l’événement UN est entré j- J'expérimente, sinon.

Et aujourd’hui, vous pouvez ajouter « … et l’informatique » (ndlr).

Tout processus réel caractéristique fluctuations aléatoires causées par la variabilité physique de tout facteur au fil du temps. De plus, des influences externes aléatoires peuvent avoir lieu sur le système. Par conséquent, avec une valeur moyenne égale des paramètres d’entrée à différents moments, les paramètres de sortie seront différents. Ainsi, si les impacts aléatoires sur le système étudié sont significatifs, il est nécessaire de développer probabiliste (stochastique) modèle de l'objet, prenant en compte les lois statistiques de distribution des paramètres du système et choisissant l'appareil mathématique approprié.

Lors de la construction modèles déterministes les facteurs aléatoires sont négligés, en tenant compte uniquement des conditions spécifiques du problème à résoudre, des propriétés et des connexions internes de l'objet (presque toutes les branches de la physique classique sont construites sur ce principe)

L'idée des méthodes déterministes- dans l’utilisation de la dynamique propre du modèle lors de l’évolution du système.

Dans notre cours, ces méthodes sont présentées : méthode de dynamique moléculaire, dont les avantages sont : la précision et la certitude de l'algorithme numérique ; L'inconvénient est qu'il demande beaucoup de travail en raison du calcul des forces d'interaction entre les particules (pour un système de N particules, à chaque étape il faut effectuer
opérations de comptage de ces forces).

À approche déterministe les équations du mouvement sont spécifiées et intégrées au fil du temps. Nous considérerons des systèmes de nombreuses particules. Les positions des particules contribuent à l'énergie potentielle à l'énergie totale du système, et leurs vitesses déterminent la contribution de l'énergie cinétique. Le système se déplace le long d’une trajectoire avec une énergie constante dans l’espace des phases (d’autres explications suivront). Pour les méthodes déterministes, un ensemble microcanonique est naturel, dont l'énergie est l'intégrale du mouvement. De plus, il est possible d'étudier des systèmes pour lesquels l'intégrale du mouvement est la température et (ou) la pression. Dans ce cas, le système n’est pas fermé, et il peut être représenté en contact avec un réservoir thermique (ensemble canonique). Pour le modéliser, on peut utiliser une approche dans laquelle on limite un nombre de degrés de liberté du système (par exemple, on pose la condition
).

Comme nous l'avons déjà noté, dans le cas où les processus d'un système se produisent de manière imprévisible, ces événements et quantités qui leur sont associés sont appelés aléatoire, et des algorithmes de modélisation des processus dans le système - probabiliste (stochastique). grec stohastikos- signifie littéralement « celui qui peut deviner ».

Les méthodes stochastiques utilisent une approche légèrement différente des méthodes déterministes : elles nécessitent uniquement de calculer la partie configuration du problème. Les équations de la quantité de mouvement d'un système peuvent toujours être intégrées. Le problème qui se pose alors est de savoir comment effectuer des transitions d’une configuration à une autre, qui dans l’approche déterministe sont déterminées par la dynamique. De telles transitions dans les méthodes stochastiques sont réalisées avec une évolution probabiliste dans Processus de Markov. Le processus de Markov est un analogue probabiliste de la dynamique propre du modèle.

Cette approche présente l’avantage de permettre de modéliser des systèmes qui n’ont aucune dynamique inhérente.

Contrairement aux méthodes déterministes, les méthodes stochastiques sur PC sont plus simples et plus rapides à mettre en œuvre, mais pour obtenir des valeurs proches des vraies, il faut de bonnes statistiques, ce qui nécessite de modéliser un large ensemble de particules.

Un exemple de méthode complètement stochastique est Méthode Monte Carlo. Les méthodes stochastiques utilisent le concept important de processus de Markov (chaîne de Markov). Le processus de Markov est un analogue probabiliste du processus de la mécanique classique. La chaîne de Markov se caractérise par l'absence de mémoire, c'est-à-dire les caractéristiques statistiques du futur proche sont déterminées uniquement par le présent, sans tenir compte du passé.

Plus pratique que occupé 2.

Modèle de marche aléatoire

Exemple(officiel)

Supposons que les particules soient placées dans des positions arbitraires aux nœuds d'un réseau bidimensionnel. À chaque pas de temps, la particule « saute » vers l’une des positions de repos. Cela signifie que la particule a la capacité de choisir la direction de son saut vers l’un des quatre endroits les plus proches. Après un saut, la particule « ne se souvient plus » d'où elle a sauté. Ce cas correspond à une marche aléatoire et est une chaîne de Markov. Le résultat à chaque étape est un nouvel état du système de particules. Le passage d'un état à un autre dépend uniquement de l'état précédent, c'est-à-dire que la probabilité que le système soit dans l'état i dépend uniquement de l'état i-1.

Quels processus physiques dans un corps solide nous rappellent (de manière similaire) le modèle formel décrit d'une marche aléatoire ?

Bien sûr, la diffusion, c'est-à-dire les processus mêmes dont nous avons considéré les mécanismes au cours des transferts de chaleur et de masse (3ème cours). A titre d'exemple, rappelons l'autodiffusion classique habituelle dans un cristal, lorsque, sans changer leurs propriétés visibles, les atomes changent périodiquement de lieu de résidence temporaire et errent autour du réseau, en utilisant le mécanisme dit de « vacance ». C'est également l'un des mécanismes de diffusion les plus importants dans les alliages. Le phénomène de migration des atomes dans les solides joue un rôle déterminant dans de nombreuses technologies traditionnelles et non traditionnelles - métallurgie, travail des métaux, création de semi-conducteurs et supraconducteurs, revêtements protecteurs et films minces.

Elle a été découverte par Robert Austen en 1896 en observant la diffusion de l'or et du plomb. La diffusion- le processus de redistribution des concentrations atomiques dans l'espace par migration chaotique (thermique). Causes, du point de vue de la thermodynamique, il peut y en avoir deux : l'entropie (toujours) et l'énergie (parfois). La raison entropique est l’augmentation du chaos lors du mélange d’atomes de type sculpté. Énergie - favorise la formation d'un alliage, lorsqu'il est plus avantageux d'avoir des atomes de types différents à proximité, et favorise la décomposition par diffusion, lorsque le gain d'énergie est assuré en plaçant ensemble des atomes de même type.

Les mécanismes de diffusion les plus courants sont :

    poste vacant

    internodal

    mécanisme de déplacement

Pour mettre en œuvre le mécanisme de vacance de poste, au moins un poste vacant est requis. La migration des postes vacants s'effectue en se déplaçant vers un site inoccupé de l'un des atomes voisins. Un atome peut faire un saut de diffusion s'il y a un vide à côté de lui. Lacune cm, avec une période de vibrations thermiques d'un atome dans un site de réseau, à une température T = 1330 K (par 6 K< точки плавления), число скачков, которое совершает вакансия в 1с, путь за одну секунду-см=3 м (=10 км/ч). По прямой же путь, проходимый вакансиейсм, т. е. в 300 раз короче пути по ломаной.

La nature en avait besoin. de sorte que le poste vacant change de lieu de résidence en 1 s, passe le long d'une ligne brisée de 3 m et se déplace le long d'une ligne droite de seulement 10 microns. Les atomes se comportent plus calmement que les postes vacants. Mais ils changent aussi de lieu de résidence un million de fois par seconde et se déplacent à une vitesse d'environ 1 m/heure.

Donc. qu'une lacune pour plusieurs milliers d'atomes est suffisante pour déplacer les atomes à un niveau microscopique à une température proche de la fusion.

Formons maintenant un modèle de marche aléatoire pour le phénomène de diffusion dans un cristal. Le processus d'errance d'un atome est chaotique et imprévisible. Cependant, pour un ensemble d’atomes errants, des régularités statistiques devraient apparaître. Nous considérerons des sauts non corrélés.

Cela signifie que si
Et
est le mouvement des atomes lors des sauts i et j, puis après moyenne sur l'ensemble des atomes errants :

(produit moyen = produit des moyennes. Si la marche est complètement aléatoire, toutes les directions sont égales et
=0.)

que chaque particule de l'ensemble fasse N sauts élémentaires. Alors son déplacement total est :

;

et le carré moyen du déplacement

Puisqu’il n’y a pas de corrélation, le deuxième terme =0.

Supposons que chaque saut ait la même longueur h et la même direction aléatoire, et le nombre moyen de sauts par unité de temps est v. Alors

Il est évident que

Appelons la quantité
- coefficient de diffusion des atomes errants. Alors
;

Pour le cas tridimensionnel -
.

Nous avons loi de diffusion parabolique- le carré moyen du déplacement est proportionnel au temps de déplacement.

C'est ce problème que nous devons résoudre dans le prochain travail de laboratoire : modéliser des marches aléatoires unidimensionnelles.

Modèle numérique.

On définit un ensemble de M particules dont chacune fait N pas, indépendamment les unes des autres, vers la droite ou vers la gauche avec la même probabilité. Longueur du pas = h.

Pour chaque particule on calcule le carré du déplacement
en N étapes. Ensuite, nous effectuons une moyenne sur l'ensemble -
. Ordre de grandeur
, Si
, c'est-à-dire que le carré moyen du déplacement est proportionnel au temps de marche aléatoire
- temps moyen d'un pas) - loi de diffusion parabolique.

Modèles mathématiques en économie et programmation

1. Modèles mathématiques déterministes et probabilistes en économie. Avantages et inconvénients

Les méthodes d'étude des processus économiques reposent sur l'utilisation de modèles mathématiques - déterministes et probabilistes - représentant le processus, le système ou le type d'activité étudié. De tels modèles fournissent une description quantitative du problème et servent de base à la prise de décisions de gestion lors de la recherche de l'option optimale. Dans quelle mesure ces décisions sont-elles justifiées, sont-elles les meilleures possibles, tous les facteurs qui déterminent la solution optimale sont-ils pris en compte et pondérés, quel est le critère pour déterminer que cette solution est vraiment la meilleure - telles sont les questions qui se posent grande importance pour les directeurs de production, et la réponse à cette question peut être trouvée à l'aide de méthodes de recherche opérationnelle [Chesnokov S.V. Analyse déterministe des données socio-économiques. - M. : Nauka, 1982, p.45].

L'un des principes de formation d'un système de contrôle est la méthode des modèles cybernétiques (mathématiques). La modélisation mathématique occupe une position intermédiaire entre l'expérience et la théorie : il n'est pas nécessaire de construire un véritable modèle physique du système, il sera remplacé par un modèle mathématique ; La particularité de la formation d'un système de contrôle réside dans l'approche probabiliste et statistique des processus de contrôle. En cybernétique, il est admis que tout processus de contrôle est soumis à des influences aléatoires et perturbatrices. Ainsi, le processus de production est influencé par un grand nombre de facteurs qui ne peuvent être pris en compte de manière déterministe. Le processus de production est donc considéré comme influencé par des signaux aléatoires. Pour cette raison, la planification d’entreprise ne peut être que probabiliste.

Pour ces raisons, lorsqu’on parle de modélisation mathématique des processus économiques, on entend souvent des modèles probabilistes.

Décrivons chaque type de modèle mathématique.

Les modèles mathématiques déterministes se caractérisent par le fait qu'ils décrivent la relation de certains facteurs avec un indicateur effectif comme une dépendance fonctionnelle, c'est-à-dire dans les modèles déterministes, l'indicateur effectif du modèle est présenté sous la forme d'un produit, d'un quotient, d'un algébrique somme de facteurs, ou sous la forme de toute autre fonction. Ce type de modèles mathématiques est le plus courant car, étant assez simple à utiliser (par rapport aux modèles probabilistes), il permet de comprendre la logique d'action des principaux facteurs du développement du processus économique, de quantifier leur influence, comprendre quels facteurs et dans quelle proportion il est possible et conseillé de modifier pour augmenter l'efficacité de la production.

Les modèles mathématiques probabilistes sont fondamentalement différents des modèles déterministes en ce sens que dans les modèles probabilistes, la relation entre les facteurs et l'attribut résultant est probabiliste (stochastique) : avec une dépendance fonctionnelle (modèles déterministes), le même état des facteurs correspond à un seul état de l'attribut résultant. attribut, alors que dans les modèles probabilistes, un seul et même état de facteurs correspond à tout un ensemble d'états de l'attribut résultant [Tolstova N. Logique de l'analyse mathématique des processus économiques. - M. : Nauka, 2001, p. 32-33].

L’avantage des modèles déterministes réside dans leur facilité d’utilisation. Le principal inconvénient est la faible adéquation de la réalité puisque, comme indiqué ci-dessus, la plupart des processus économiques sont de nature probabiliste.

L'avantage des modèles probabilistes est qu'ils sont, en règle générale, plus cohérents avec la réalité (plus adéquats) que les modèles déterministes. Cependant, l’inconvénient des modèles probabilistes réside dans la complexité et la complexité de leur application. Dans de nombreuses situations, il suffit donc de se limiter aux modèles déterministes.

2. Énoncé du problème de programmation linéaire à l'aide de l'exemple du problème des rations alimentaires

Pour la première fois, la formulation d'un problème de programmation linéaire sous la forme d'une proposition d'élaboration d'un plan de transport optimal ; permettant de minimiser le kilométrage total a été donné dans les travaux de l'économiste soviétique A. N. Tolstoï en 1930.

Les études systématiques des problèmes de programmation linéaire et le développement de méthodes générales pour les résoudre ont été développés dans les travaux des mathématiciens russes L. V. Kantorovich, V. S. Nemchinov et d'autres mathématiciens et économistes. Par ailleurs, de nombreux travaux de scientifiques étrangers et surtout américains sont consacrés aux méthodes de programmation linéaire.

Le problème de la programmation linéaire consiste à maximiser (minimiser) une fonction linéaire.

sous restrictions

et tout

Commentaire. Les inégalités peuvent aussi avoir des significations opposées. En multipliant les inégalités correspondantes par (-1) on peut toujours obtenir un système de la forme (*).

Si le nombre de variables dans le système de contraintes et la fonction objectif dans le modèle mathématique du problème est de 2, alors celui-ci peut être résolu graphiquement.

Nous devons donc maximiser la fonction pour un système de contraintes satisfaisant.

Passons à l'une des inégalités du système de restrictions.

D'un point de vue géométrique, tous les points qui satisfont à cette inégalité doivent soit se trouver sur une droite, soit appartenir à l'un des demi-plans en lesquels est divisé le plan de cette droite. Pour le savoir, vous devez vérifier lequel d'entre eux contient un point ().

Remarque 2. Si , alors il est plus facile de prendre le point (0;0).

Les conditions de non-négativité définissent également respectivement des demi-plans avec des lignes de démarcation. Nous supposerons que le système d'inégalités est cohérent, alors les demi-plans, se coupant, forment une partie commune, qui est un ensemble convexe et représente un ensemble de points dont les coordonnées sont une solution à ce système - c'est l'ensemble des admissibles solutions. L'ensemble de ces points (solutions) est appelé un polygone de solution. Il peut s'agir d'un point, d'un rayon, d'un polygone ou d'une zone polygonale illimitée. Ainsi, la tâche de la programmation linéaire est de trouver un point dans le polygone de décision auquel la fonction objectif prend la valeur maximale (minimale). Ce point existe lorsque le polygone de solution n'est pas vide et que la fonction objectif sur celui-ci est délimitée par le haut (par le bas). Dans les conditions spécifiées, à l'un des sommets du polygone de solution, la fonction objectif prend la valeur maximale. Pour déterminer ce sommet, nous construisons une ligne droite (où h est une constante). Le plus souvent, une ligne droite est empruntée. Reste à connaître le sens de déplacement de cette ligne. Cette direction est déterminée par le gradient (antigradient) de la fonction objectif.

Le vecteur en chaque point est perpendiculaire à la ligne, donc la valeur de f augmentera à mesure que la ligne se déplace dans la direction du gradient (diminuera dans la direction de l'antigradient). Pour ce faire, tracez des lignes droites parallèles à la droite, en vous décalant dans le sens du dégradé (anti-dégradé).

Nous continuerons ces constructions jusqu'à ce que la droite passe par le dernier sommet du polygone solution. Ce point détermine la valeur optimale.

Ainsi, trouver une solution à un problème de programmation linéaire à l'aide de la méthode géométrique comprend les étapes suivantes :

Des droites sont construites dont les équations sont obtenues en remplaçant les signes d'inégalité dans les restrictions par des signes d'égalité exacte.

Trouver les demi-plans définis par chacune des contraintes du problème.

Trouvez le polygone solution.

Construisez un vecteur.

Ils construisent une ligne droite.

Ils construisent des droites parallèles dans la direction du gradient ou de l'antigradient, à la suite de quoi ils trouvent le point où la fonction prend la valeur maximale ou minimale, ou établissent que la fonction est illimitée d'en haut (d'en bas) sur le ensemble admissible.

Les coordonnées du point maximum (minimum) de la fonction sont déterminées et la valeur de la fonction objectif en ce point est calculée.

Problème de nutrition rationnelle (problème de ration alimentaire)

Formulation du problème

La ferme engraisse du bétail à des fins commerciales. Pour simplifier, supposons qu’il n’existe que quatre types de produits : P1, P2, P3, P4 ; Le coût unitaire de chaque produit est respectivement égal à C1, C2, C3, C4. À partir de ces produits, vous devez créer un régime qui doit contenir : des protéines - au moins des unités b1 ; glucides - au moins unités B2 ; graisse - au moins des unités B3. Pour les produits P1, P2, P3, P4, la teneur en protéines, glucides et graisses (en unités par unité de produit) est connue et précisée dans le tableau, où aij (i=1,2,3,4 ; j=1 ,2,3) - quelques chiffres spécifiques ; le premier index indique le numéro du produit, le second - le numéro de l'élément (protéines, glucides, graisses).

Les modèles mathématiques prédictifs probabilistes-déterministes des graphiques de charge énergétique sont une combinaison de modèles statistiques et déterministes. Ce sont ces modèles qui permettent d'assurer la meilleure précision de prévision et la meilleure adaptabilité à l'évolution du processus de consommation d'énergie.

Ils sont basés sur concepts de modélisation standardisés charges, c'est-à-dire décomposition additive de la charge réelle sur un graphique standardisé (composante de base, tendance déterministe) et la composante résiduelle :

t– heure dans la journée ; d– nombre de jours, par exemple, dans une année.

Dans le composant standard lors de la modélisation, ils effectuent également une sélection additive de composants individuels qui prennent en compte : l'évolution de la charge saisonnière moyenne ; cycle hebdomadaire de changements de consommation d'énergie ; un composant de tendance qui modélise les effets supplémentaires associés aux changements d'heure du lever et du coucher du soleil d'une saison à l'autre ; composant qui prend en compte la dépendance de la consommation d'énergie aux facteurs météorologiques , notamment les températures, etc.

Examinons plus en détail les approches de modélisation de composants individuels basées sur les modèles déterministes et statistiques mentionnés ci-dessus.

La modélisation charge saisonnière moyenne souvent effectué en utilisant une simple moyenne mobile :

où N est le nombre de jours ordinaires (jours ouvrables) contenus dans les n semaines passées. , puisque les « jours spéciaux », les « jours irréguliers », les jours fériés, etc. sont exclus des semaines. Les mises à jour quotidiennes sont effectuées en faisant la moyenne des données des n dernières semaines.

Simulation de cycles hebdomadaires également réalisé par moyenne mobile du formulaire

mis à jour chaque semaine en faisant la moyenne des données des n dernières semaines ou en utilisant une moyenne mobile à pondération exponentielle :

où est un paramètre de lissage déterminé empiriquement ( ).

En travail pour le mannequinat Et sept composants sont utilisés , pour chaque jour de la semaine et chaque déterminé séparément à l’aide d’un modèle de lissage exponentiel.

Auteurs de l'ouvrage pour la modélisation Un double lissage exponentiel de type Holt – Winters est utilisé. En travail pour le mannequinat utiliser une représentation harmonique de la forme

avec des paramètres estimés à partir de données empiriques (la valeur « 52 » détermine le nombre de semaines dans une année). Cependant, le problème de l’estimation opérationnelle adaptative de ces paramètres dans ce travail n’est pas complètement résolu.

La modélisation , dans certains cas, réalisée à l'aide série de Fourier finie: avec une période hebdomadaire, avec une période journalière, ou avec une modélisation séparée des jours ouvrés et des week-ends, respectivement, avec des périodes de cinq et deux jours :

Pour modéliser le composant de tendance utiliser soit des polynômes du 2e au 4e ordre, soit diverses fonctions empiriques non linéaires, par exemple de la forme :

où est un polynôme du quatrième degré décrivant des changements de charge lissés relativement lents pendant la journée selon les saisons ; , , – fonctions modélisant les effets associés aux changements d'heure de lever et de coucher du soleil selon la saison.

Pour prendre en compte la dépendance de la consommation électrique aux facteurs météorologiques, dans certains cas, un composant supplémentaire est introduit . Le travail justifie théoriquement l’inclusion dans le modèle, mais les possibilités de modélisation de l'effet de la température ne sont prises en compte que dans une mesure limitée. Ainsi, pour représenter la composante température pour les conditions égyptiennes, un modèle polynomial est utilisé

où est la température de l'air à la t-ème heure.

Une méthode de régression est utilisée pour « normaliser » les pics et les creux du processus en tenant compte de la température, les données normalisées étant représentées par un modèle de moyenne mobile intégrée autorégressive unidimensionnelle (ARISS).

Également utilisé pour la modélisation en tenant compte de la température, un filtre de Kalman récursif, qui inclut des facteurs externes - prévision de la température. Ou encore, ils utilisent une interpolation cubique polynomiale des charges horaires à court terme et prennent en compte l'influence de la température dans le modèle.

Pour prendre en compte les prévisions de température quotidienne moyenne, les diverses conditions météorologiques pour la mise en œuvre du processus analysé et en même temps augmenter la stabilité du modèle, il est proposé d'utiliser une modification spéciale du modèle de moyenne mobile

,

où, pour diverses conditions météorologiques associées à des probabilités, une série de m graphiques de charge est formée , et la prévision est définie comme l'espérance mathématique conditionnelle. Les probabilités sont mises à jour à l'aide de la méthode Bayes à mesure que de nouvelles valeurs et facteurs de charge réels deviennent disponibles au cours de la journée.

La modélisation composante résiduelle réalisé à la fois à l'aide de modèles unidimensionnels et multidimensionnels, en tenant compte de facteurs météorologiques et autres facteurs externes. Ainsi, un modèle autorégressif AR(k) d'ordre k est souvent utilisé comme modèle unidimensionnel (à un facteur).

,

où est le bruit blanc résiduel. Pour prédire les lectures horaires (demi-heures), les modèles AR(1), AR(2) et même AR(24) sont utilisés. Même si le modèle ARISS généralisé est utilisé pour de toute façon, son application se résume aux modèles AR(1), AR(2) pour les mesures de charge toutes les cinq minutes et toutes les heures.

Un autre modèle à un facteur pour modéliser le composant le modèle est-il simple ou double lissage exponentiel. Ce modèle vous permet d'identifier efficacement les tendances à court terme à mesure que la charge résiduelle change. La simplicité, l'économie, la récursivité et l'efficacité des calculs confèrent à la méthode de lissage exponentiel une large application. Utilisation d'un lissage exponentiel simple à différentes constantes et déterminer deux moyennes exponentielles Et . Prévision de la composante résiduelle déterminé de manière proactive par la formule



Avez-vous aimé l'article? Partage avec tes amis!