Voir les pages où le terme probabilités a priori est mentionné. Probabilité préalable

Un raisonnement fondé uniquement sur des faits précis et des déductions précises à partir de ces faits est appelé raisonnement strict. Dans les cas où des faits incertains doivent être utilisés pour prendre des décisions, un raisonnement rigoureux devient inadapté. Par conséquent, l’une des plus grandes forces de tout système expert est sa capacité à raisonner dans des conditions d’incertitude avec autant de succès que le font les experts humains. Un tel raisonnement n’est pas rigoureux. Nous pouvons parler de présence en toute sécurité logique floue.

Incertitude, et par conséquent, la logique floue peut être considérée comme un manque d’informations adéquates pour la prise de décision. L’incertitude devient un problème car elle peut entraver la création de la meilleure solution et même conduire à trouver une mauvaise solution. Il convient de noter qu’une solution de haute qualité trouvée en temps réel est souvent considérée comme plus acceptable qu’une meilleure solution dont le calcul est long. Par exemple, retarder le traitement pour permettre des tests supplémentaires peut entraîner la mort du patient avant de recevoir le traitement.

La raison de l'incertitude est la présence de diverses erreurs dans les informations. Classement simplifié Ces erreurs peuvent être représentées en les divisant dans les types suivants :

  • ambiguïté de l'information, dont l'apparition est due au fait que certaines informations peuvent être interprétées de différentes manières ;
  • informations incomplètes en raison du manque de certaines données ;
  • insuffisance d'information due à l'utilisation de données qui ne correspondent pas à la situation réelle (les raisons possibles sont des erreurs subjectives : mensonges, désinformation, dysfonctionnement des équipements) ;
  • les erreurs de mesure résultant du non-respect des exigences d'exactitude et de précision des critères de présentation quantitative des données ;
  • erreurs aléatoires, dont la manifestation sont des fluctuations aléatoires des données par rapport à leur valeur moyenne (la raison peut être : le manque de fiabilité de l'équipement, le mouvement brownien, les effets thermiques, etc.).

Aujourd'hui, un nombre important de théories de l'incertitude ont été développées, qui tentent d'éliminer certaines, voire toutes les erreurs et de fournir une inférence logique fiable dans des conditions d'incertitude. Les théories les plus couramment utilisées en pratique sont celles basées sur la définition classique de la probabilité et sur la probabilité a posteriori.

L’un des outils les plus anciens et les plus importants pour résoudre les problèmes d’intelligence artificielle est la probabilité. Probabilité est une manière quantitative de prendre en compte l’incertitude. La probabilité classique trouve son origine dans une théorie proposée pour la première fois par Pascal et Fermat en 1654. Depuis lors, de nombreux travaux ont été réalisés dans le domaine des probabilités et dans la mise en œuvre de nombreuses applications des probabilités dans les domaines scientifique, technologique, commercial, économique et autres.

Probabilité classique

Probabilité classiqueégalement appelée probabilité a priori, puisque sa définition s'applique aux systèmes idéaux. Le terme « a priori » fait référence à une probabilité déterminée « à des événements », sans tenir compte de nombreux facteurs qui se produisent dans le monde réel. Le concept de probabilité a priori s'étend aux événements se produisant dans des systèmes idéaux sujets à l'usure ou à l'influence d'autres systèmes. Dans un système idéal, l’occurrence de n’importe lequel des événements se produit de la même manière, ce qui rend leur analyse beaucoup plus facile.

La formule fondamentale de la probabilité classique (P) est définie comme suit :

Dans cette formule W est le nombre d'événements attendus, et N- le nombre total d'événements avec des probabilités égales qui sont les résultats possibles d'une expérience ou d'un test. Par exemple, la probabilité d’obtenir n’importe quelle face sur un dé à six faces est de 1/6, et la probabilité de tirer n’importe quelle carte d’un jeu contenant 52 cartes différentes est de 1/52.

Axiomes de la théorie des probabilités

Une théorie formelle des probabilités peut être créée sur la base de trois axiomes :

Les axiomes ci-dessus ont permis de jeter les bases de la théorie des probabilités, mais ils ne considèrent pas la probabilité que des événements se produisent dans des systèmes réels non idéaux. Contrairement à l'approche a priori, dans les systèmes réels, pour déterminer la probabilité d'un événement P(E), une méthode est utilisée pour déterminer la probabilité expérimentale en tant que limite de distribution de fréquence :

Probabilité a posteriori

Dans cette formule f(E) désigne la fréquence d'apparition d'un événement entre N-nombre d'observations des résultats globaux. Ce type de probabilité est également appelé probabilité a posteriori, c'est-à-dire probabilité déterminée « après les événements ». La base pour déterminer la probabilité a posteriori est la mesure de la fréquence à laquelle un événement se produit sur un grand nombre d'essais. Par exemple, déterminer le type social d'un client bancaire solvable sur la base d'une expérience empirique.

Des événements qui ne s’excluent pas mutuellement peuvent s’influencer mutuellement. De tels événements sont classés comme complexes. La probabilité d'événements complexes peut être calculée en analysant leurs espaces d'échantillonnage correspondants. Ces espaces échantillons peuvent être représentés à l’aide de diagrammes de Venn, comme le montre la Fig. 1

Fig. 1 Exemple d'espace pour deux événements non mutuellement exclusifs

La probabilité d'occurrence de l'événement A, qui est déterminée en tenant compte du fait que l'événement B s'est produit, est appelée probabilité conditionnelle et est notée P(UNE|B). La probabilité conditionnelle est définie comme suit :

Probabilité préalable

Dans cette formule, la probabilité P(B) ne doit pas être égal à zéro et représente une probabilité a priori déterminée avant que d’autres informations supplémentaires ne soient connues. Probabilité préalable, qui est utilisée en relation avec l'utilisation de la probabilité conditionnelle, est parfois appelée probabilité absolue.

Il existe un problème qui est essentiellement à l’opposé du problème du calcul de la probabilité conditionnelle. Elle consiste à déterminer la probabilité inverse, qui montre la probabilité d'un événement précédent en tenant compte des événements survenus dans le futur. Dans la pratique, ce type de probabilité se produit assez souvent, par exemple lors de diagnostics médicaux ou de diagnostics d'équipements, au cours desquels certains symptômes sont identifiés et la tâche consiste à trouver une cause possible.

Pour résoudre ce problème, utilisez Théorème de Bayes, du nom du mathématicien britannique du XVIIIe siècle Thomas Bayes. La théorie bayésienne est désormais largement utilisée pour analyser les arbres de décision en économie et en sciences sociales. La méthode bayésienne de recherche de solutions est également utilisée dans le système expert PROSPECTOR lors de l'identification de sites prometteurs pour l'exploration minérale. Le système PROSPECTOR a acquis une grande popularité en tant que premier système expert grâce auquel un précieux gisement de molybdène d'une valeur de 100 millions de dollars a été découvert.

La forme générale du théorème de Bayes peut s'écrire en termes d'événements (E) et d'hypothèses (H), comme suit :

Probabilité subjective

Lors de la détermination de la probabilité d'un événement, un autre type de probabilité est également utilisé, appelé probabilité subjective. Concept probabilité subjective s'étendre à des événements qui ne sont pas reproductibles et qui n'ont aucune base historique à partir de laquelle extrapoler. Cette situation peut être comparée au forage d’un puits de pétrole sur un nouveau site. Cependant, mieux vaut évaluer la probabilité subjective par un expert que pas d’évaluation du tout.

Question n° 38. Groupe complet d'événements. Formule de probabilité totale. Formules bayésiennes.

Deux événements. L'indépendance dans l'ensemble. Formulation du théorème de multiplication dans ce cas.

Question n°37. Probabilité conditionnelle. Théorème des multiplications. Définition de l'indépendance

La probabilité conditionnelle est la probabilité d'un événement étant donné qu'un autre événement s'est déjà produit.

P(A│B)= p(AB)/p(B)

La probabilité conditionnelle reflète l'influence d'un événement sur la probabilité d'un autre.

Théorème des multiplications.

La probabilité d'apparition d'événements est déterminée par la formule P(A 1,A 2,….A n)= P(A 1)P(A 2/ A 1)…P(A n / A 1 A 2… Un n-1)

Pour le produit de deux événements, il s’ensuit que

P(AB)=P(A/B)P(B)=P(B/A)P(A)

Si un événement ne dépend pas de l'autre, si la survenance de l'un d'eux n'affecte pas la probabilité de survenance de l'autre, alors ce dernier ne dépend pas non plus du premier. Cela donne toutes les raisons de qualifier de tels événements d’indépendants. Mathématiquement, l'indépendance signifie que la probabilité conditionnelle d'un événement est la même que sa probabilité (probabilité inconditionnelle).

1. Ils disent que l'événement A ne dépend pas de l'événement B si

P(UNE│B)=P(UNE)

Si l'événement A ne dépend pas de l'événement B, alors l'événement B ne dépend pas de l'événement A.

2. Si les événements A et B sont indépendants, alors P(AB) = P(A)P(B) - cette égalité est utilisée pour déterminer des événements indépendants.

Il faut faire la distinction entre l'indépendance par paire des événements et l'indépendance dans l'ensemble.

Les événements A1, A2,….An sont appelés collectivement indépendants s’ils sont indépendants par paire et que chacun d’eux ne dépend du produit d’aucun ensemble d’autres événements.

Si les événements A1, A2,….An sont indépendants en totalité alors

P(UNE 1,UNE 2,….UNE n)=P(UNE 1)P(UNE 2)…P(UNE n).

Dans chaque groupe, un événement se produira certainement à la suite du test, et la survenue de l'un d'entre eux exclut la survenue de tous les autres. De tels événements sont appelés un groupe d’événements complet.

Définition : Si un groupe d'événements est tel qu'au moins l'un d'entre eux doit se produire à la suite du test, et que deux d'entre eux sont incompatibles, alors ce groupe d'événements est appelé un groupe complet.

Chaque événement d'un groupe complet est appelé événement élémentaire. Tout événement élémentaire est également possible, car il n'y a aucune raison de croire que l'un d'entre eux soit plus possible que n'importe quel autre événement dans le groupe complet.

Deux événements opposés constituent un groupe complet.

La fréquence relative de l'événement A est le rapport entre le nombre d'expériences à la suite desquelles l'événement A s'est produit et le nombre total d'expériences.

La différence entre la fréquence relative et la probabilité réside dans le fait que la probabilité est calculée sans expérimentation directe et que la fréquence relative est calculée après expérimentation.



Formule de probabilité totale

(où A est un événement, H1, H2 ... Hi sont incompatibles par paires, formant un groupe complet, et A peut apparaître avec H1, H2 Hi)

P(A)=P(A|H 1) P(H 1)+P(A|H 2)P(H 2)+P(A|H 3)P(H 3)+…+P(A| Hn)P(Hn)

Formule de Bayes

Р(Нi |A)=

Commentaire. Les événements Hi sont appelés hypothèses de probabilité, p(Hi) sont des probabilités a priori d'hypothèses Hi, et les probabilités P(Hi/A) sont des probabilités a posteriori d'hypothèses Hi.

Que le résultat de l'expérience soit connu, à savoir que l'événement A s'est produit. Ce fait peut changer les probabilités a priori (c'est-à-dire connues avant l'expérience) des hypothèses. Pour réestimer les probabilités d'hypothèses avec un résultat expérimental connu, la formule de Bayes est utilisée :

Exemple. Après deux tirs de deux tireurs dont les probabilités de réussite étaient égales à 0,6 et 0,7, il y avait un trou dans la cible. Trouvez la probabilité que le premier tireur touche.

Solution. Laissez l'événement A être un coup avec deux coups,

et hypothèses : H1 – le premier touché et le deuxième manqué,

H2 – le premier manqué et le deuxième touché,

H3 - les deux ont touché,

H4 – les deux manqués.

Probabilités des hypothèses :

р(Н1) = 0,6·0,3 = 0,18,

p(H2) = 0,4·0,7 = 0,28,

p(H3) = 0,6·0,7 = 0,42,

p(H4) = 0,4 0,3 = 0,12.

Alors p(A/H1) = p(A/H2) = 1,

p(A/H3) = p(A/H4) = 0.

Par conséquent, la probabilité totale p(A) = 0,18 1 + 0,28 1 + 0,42 0 + 0,12 0 = 0,46.

La formule de probabilité totale permet de calculer la probabilité d'un événement d'intérêt à travers les probabilités conditionnelles de cet événement sous l'hypothèse de certaines hypothèses, ainsi que les probabilités de ces hypothèses.

Définition 3.1. Soit l'événement A ne peut se produire qu'avec l'un des événements H1, H2,..., Hn, formant un groupe complet d'événements incompatibles. Alors les événements Н1, Н2,…, Нп sont appelés hypothèses.

Théorème 3.1. La probabilité que l'événement A se produise avec les hypothèses H1, H2,..., Hn est égale à :

où p(Hi) est la probabilité de la i-ème hypothèse, et p(A/Hi) est la probabilité de l'événement A, sous réserve de la mise en œuvre de cette hypothèse. La formule (P(A)= ) est appelée formule de probabilité totale

Question n° 39. Schéma de Bernoulli. Probabilité de m succès dans une série de n essais

Un événement aléatoire est évalué par un nombre qui détermine l'intensité de la manifestation de cet événement. Ce numéro s'appelle probabilitéévénements P() . Probabilité d'un événement élémentaire – . La probabilité d'un événement est une mesure numérique du degré d'objectivité, de la possibilité de cet événement. Plus la probabilité est élevée, plus l’événement est possible.

Tout événement qui coïncide avec l'ensemble de l'espace de résultat S, appelé événement fiable, c'est-à-dire un tel événement qui, à la suite de l'expérience, doit nécessairement se produire (par exemple, la perte d'un nombre quelconque de points de 1 à 6 sur un dé). Si l'événement n'appartient pas à l'ensemble S, alors on considère impossible(par exemple, lancer un nombre supérieur à 6 sur un dé). La probabilité d'un événement impossible est de 0, la probabilité d'un certain événement est de 1. Tous les autres événements ont une probabilité de 0 à 1.

Événements E Et sont appelés opposé, Si E vient quand ça ne vient pas . Par exemple, un événement E– « lancer un nombre pair de points », puis l’événement - "obtenir un nombre impair de points." Deux événements E 1 Et E 2 sont appelés incompatible, s'il n'y a pas de résultat commun aux deux événements.

Pour déterminer les probabilités d'événements aléatoires, des méthodes directes ou indirectes sont utilisées. Lors du calcul direct de la probabilité, on distingue les schémas de calcul a priori et a posteriori, lorsque réaliser des observations (expériences) ou compter a priori le nombre d'expériences m, dans lequel l'événement s'est manifesté, et le nombre total d'expériences réalisées n. Les méthodes indirectes sont basées sur la théorie axiomatique. Puisque les événements sont définis comme des ensembles, toutes les opérations de la théorie des ensembles peuvent être effectuées sur eux. La théorie des ensembles et l'analyse fonctionnelle ont été proposées par l'académicien A.N. Kolmogorov et constitue la base de la théorie axiomatique des probabilités. Présentons les axiomes de probabilité.

Axiomeje. Champ d'événementF(S) est une algèbre d'ensembles.

Cet axiome souligne l’analogie entre la théorie des ensembles et la théorie des probabilités.

AxiomeII. À chaque ensembledepuisF(S) est associé à un nombre réel P(), appelée probabilité de l'événement:

étant donné que S 1 S 2 = (pour les événements incompatibles S 1 Et S 2 ), ou pour un ensemble d'événements incompatibles

N– le nombre d'événements élémentaires (résultats possibles).

Probabilité d'un événement aléatoire

,

– probabilités d’événements élémentaires inclus dans le sous-ensemble .

Exemple 1.1. Déterminer la probabilité d'obtenir chaque nombre en lançant un dé, en obtenant un nombre pair, nombre 4 .

Solution. La probabilité que chaque numéro tombe hors de l'ensemble

S = (1, 2, 3, 4, 5, 6)
1/6.

La probabilité d'obtenir un nombre pair, c'est-à-dire
={2,
4, 6}, sur la base de (1.6), ce sera P(
) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2
.

Probabilité d'obtenir un nombre  4 , c'est-à-dire
= {4, 5, 6 } ,

P(
) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2.

Missions pour travail indépendant

1. Il y a 20 boules blanches, 30 boules noires et 50 boules rouges dans un panier. Déterminer la probabilité que la première balle tirée du panier soit blanche ; noir; rouge.

2. Il y a 12 garçons et 10 filles dans le groupe d'élèves. Quelle est la probabilité que les personnes suivantes soient absentes du séminaire de théorie des probabilités : 1) un jeune homme ; 2) fille ; 3) deux jeunes hommes ?

3. Au cours de l'année, 51 jours se distinguaient par le fait qu'il pleuvait (ou neigait) ces jours-là. Quelle est la probabilité que vous risquiez d'être pris sous la pluie (ou la neige) : 1) en allant au travail ; 2) partir en randonnée pendant 5 jours ?

4. Composez un problème sur le sujet de ce devoir et résolvez-le.

1.1.3. Définition de la probabilité a posteriori (probabilité statistique ou fréquence

événement aléatoire)

Lors de la détermination a priori de la probabilité, on a supposé que tout aussi probable. Ce n'est pas toujours vrai ; le plus souvent, cela arrive.
à
. Hypothèse
conduit à une erreur dans la détermination a priori P( ) selon le schéma établi. Pour déterminer , et dans le cas général P( ) réaliser des tests ciblés. Au cours de tels tests (par exemple, les résultats des tests dans les exemples 1.2, 1.3) dans différentes conditions de diverses conditions, influences, facteurs causals, c'est-à-dire dans divers cas, divers résultats(diverses manifestations de l'information de l'objet étudié). Chaque résultat de test correspond à un élément. ou un sous-ensemble ensembles S.Si nous définissons m comme le nombre d'événements favorables UN résultats résultant de n tests, puis la probabilité a posteriori (probabilité statistique ou fréquence d'un événement aléatoire UN)

Basé sur la loi des grands nombres pour UN

, n ,

ceux. à mesure que le nombre d'essais augmente, la fréquence d'un événement aléatoire (probabilité postérieure ou statistique) tend vers la probabilité de cet événement.

Exemple 1.2. Déterminée par le schéma des cas, la probabilité d'atterrir face en lançant une pièce de monnaie est de 0,5. Vous devez lancer une pièce de monnaie 10, 20, 30... fois et déterminer la fréquence de l'événement aléatoire de face après chaque série de tests.

Solution. C. Poisson a lancé une pièce 24 000 fois et est tombée sur face 11 998 fois. Ensuite, d'après la formule (1.7), la probabilité d'atterrissage des têtes

.

Missions pour travail indépendant

    Basé sur un important matériel statistique ( n ) les valeurs des probabilités d'apparition de lettres individuelles de l'alphabet russe et de l'espace () dans les textes ont été obtenues, qui sont données dans le tableau 1.1.

Tableau 1.1. Probabilité d'apparition de lettres de l'alphabet dans le texte

Prenez une page de n’importe quel texte et déterminez la fréquence d’apparition des différentes lettres sur cette page. Augmentez la longueur des tests à deux pages. Comparez les résultats obtenus avec les données du tableau. Tirez une conclusion.

    Lors du tir sur des cibles, le résultat suivant a été obtenu (voir tableau 1.2).

Tableau 1.2. Résultats du tir sur cible

Quelle est la probabilité que la cible soit touchée dès le premier tir si sa taille était inférieure à « dix », « neuf », etc. ?

3. Planifier et réaliser des tests similaires pour d'autres événements. Présentez leurs résultats.

La transformation que nous recherchons peut être décrite comme suit :
, Où

P(x|z) - probabilité postérieure (wiki) ;
P(z|x) - fonction de vraisemblance (dépend des données, c'est-à-dire de l'image actuelle) ;
P(x) - probabilité a priori (ne dépend pas des données).
En fait, le problème de trouver la meilleure séparation peut être formulé de la façon suivante :
(c'est la formule qui exprime MAP), ou, ce qui revient au même
, Où
E(x) - énergie de l'image.
Examinons chaque partie séparément.

Fonction de vraisemblance
Cette fonction, lorsque x = 0 ou x = 1, indique si le pixel z actuel appartient à la zone d'image dont nous avons besoin. Vous pouvez le voir sur l'image de droite.
        Pour améliorer le résultat, il faut trouver le maximum :

        Le résultat devrait être le suivant :
Probabilité préalable
Ce paramètre permet de prendre en compte les pixels voisins lors de la segmentation. Relions le pixel actuel à ses voisins verticaux et horizontaux. Alors:
, Où

- fonction de séparation ;

- « Ising prior » (probabilité a priori d'Ising, comme le suggère Yuriv).
En même temps, tout le monde

Probabilité a posteriori
Pour déterminer ce terme, nous utiliserons la distribution de Gibbs (wiki) :
, Où

Énergie de l'image, où le premier terme est la valeur énergétique du pixel actuel seul, et le second est la valeur totale avec son voisin ; w est un certain poids dont la valeur est déterminée expérimentalement ;

Fonction de vraisemblance ;

Probabilité préalable.
Ouf, il en reste juste un petit peu, le plus important.

Minimisation de l'énergie

Comme nous l'avons établi au tout début, l'énergie minimale correspond à MAP. Dans ce cas:

(l'énergie minimale requise)

Résultats

"Qu'est-ce que c'était et, surtout, POURQUOI ?!", demandera le lecteur. Voici ce que vous pourriez obtenir, en indiquant différentes valeurs pour le poids w :

Conclusions

La beauté particulière de cette méthode est que nous pouvons définir n’importe quelle formule énergétique. Par exemple, vous pouvez sélectionner uniquement des lignes droites, des points d'intersection d'un certain nombre de lignes droites/courbes dans une image, et bien plus encore. À propos, tout heureux propriétaire de MS Office 2010 peut essayer la technologie décrite. Tout ce que vous avez à faire est d’utiliser l’outil de suppression d’arrière-plan.
        Merci de votre attention !
Le coin du rédacteur
Toutes les images utilisées proviennent des œuvres de Carsten Rother. Formules construites en ligne distribution de probabilité a priori, ou simplement antérieur) de valeur indéfinie p (style d'affichage p)- distribution de probabilité, qui exprime des hypothèses sur p (style d'affichage p) avant de prendre en compte les données expérimentales. Par exemple, si p (style d'affichage p) est la part des électeurs prêts à voter pour un certain candidat, alors la distribution a priori sera l'hypothèse que p (style d'affichage p) avant que les résultats des sondages ou des élections ne soient pris en compte. En contraste avec la probabilité postérieure.

[ | ]

Distribution préalable informative exprime des informations spécifiques sur une variable. Par exemple, une distribution a priori appropriée pour la température de l'air à midi demain serait une distribution normale avec une moyenne égale à la température à midi aujourd'hui et une variance égale à la variance quotidienne de la température.

À titre d’exemple d’a priori naturel, à la suite de Jaynes (2003), considérons une situation dans laquelle on sait qu’une balle est cachée sous l’une des trois coupelles A, B ou C, mais aucune autre information n’est disponible. Dans ce cas répartition uniforme p (A) = p (B) = p (C) = 1 3 (\displaystyle p(A)=p(B)=p(C)=(\frac (1)(3))) semble intuitivement être la seule raisonnable. Plus formellement, le problème ne change pas si les noms des coupes sont intervertis. Il convient donc de choisir une répartition a priori telle que la réorganisation des noms ne la modifie pas. Et une distribution uniforme est la seule qui soit appropriée.

Distribution préalable incorrecte[ | ]

Si le théorème de Bayes s'écrit :

P (A i | B) = P (B | A i) P (A i) ∑ j P (B | A j) P (A j) , (\displaystyle P(A_(i)|B)=(\ frac (P(B|A_(i))P(A_(i)))(\somme _(j)P(B|A_(j))P(A_(j))))\,)

alors il est évident que cela restera vrai si toutes les probabilités antérieures P.(UN je) Et P.(UN j) sera multiplié par la même constante ; il en va de même pour les variables aléatoires continues. Les probabilités a posteriori resteront normalisées à la somme (ou intégrale) de 1, même si les probabilités a priori n'étaient pas normalisées. Ainsi, la distribution a priori doit spécifier uniquement les proportions correctes de probabilités.

Voir aussi [ | ]



Avez-vous aimé l'article? Partagez avec vos amis !