Catégorie de probabilité dans les examens médico-légaux et les preuves dans les affaires pénales.

La probabilité est une catégorie intermédiaire qui effectue une transition progressive ou en douceur de la nécessité au hasard et du hasard à la nécessité. Une probabilité plus faible est plus proche du hasard. Une forte probabilité est plus proche de la nécessité. Avec l’une de ses « fins », la probabilité repose sur le hasard et se transforme en lui, et avec l’autre « fin » elle se transforme en nécessité.

Parlant des origines de la catégorie « probabilité », il faut tout d’abord mentionner Aristote. À plusieurs reprises dans ses écrits, il a souligné qu'il existe une catégorie intermédiaire entre le hasard et la nécessité. Certes, Aristote n’a pas désigné cette catégorie par un terme spécifique. Il utilisait généralement l'expression « pour la plupart » dans le contexte d'une comparaison avec le hasard (qui ne peut arriver que parfois) et la nécessité (qui se produit toujours). Dans les Premiers Analystes, il parlait de l'intermédiaire entre le contingent et le nécessaire comme « possible dans un sens », en l'opposant au contingent comme « possible dans un autre sens » (32b 4-23). Dans le même ouvrage, on retrouve le terme « probable » (70a 3-10), utilisé dans un sens proche de l'expression « pour la plupart ». Voici quelques textes :

« Ajout, ou accidentel, s'appelle quelque chose qui est inhérent à quelque chose et dont on peut dire correctement, mais qui n'est pas inhérent par nécessité et pas pour la plupart. »

« Et ainsi, puisque pour l’une des choses existantes la situation est toujours la même et par nécessité (c’est une nécessité non dans le sens de violence, mais dans le sens de ce qui ne peut être autrement), avec l’autre ce n’est pas impossible. par nécessité et pas toujours, mais pour la plupart, - alors c'est le début et c'est la raison pour laquelle l'accidentel existe, car ce qui n'existe pas toujours et pas pour la plupart, nous l'appelons accidentel, ou accidentel. Ainsi, si le mauvais temps et le froid surviennent en été, nous dirons que cela s'est produit par hasard, et non pas lorsque la chaleur et la chaleur s'installent, car cette dernière arrive (en été/) toujours ou dans la plupart des cas, mais pas la première. et qu'une personne soit pâle est quelque chose de fortuit (après tout, cela n'arrive ni toujours ni dans la plupart des cas " (pp. 183-185 ; 1026b 27-35). « Par conséquent, puisque tout n'existe pas ou ne devient pas nécessaire d'une manière nécessaire et toujours, mais la majorité - pour la plupart, quelque chose doit nécessairement être accessoire (sinon tout serait nécessaire pour que la cause de l'accessoire soit la matière) ; ce qui peut être différent de ce qui se passe pour la plupart. Tout d'abord, nous devons découvrir s'il n'y a vraiment rien qui n'existe pas toujours ou pour la plupart, ou si cela est en fait impossible. il y a quelque chose qui peut être d'une manière ou d'une autre, c'est-à-dire accessoire. Y a-t-il /seulement/ quelque chose qui se produit dans la plupart des cas, et rien n'existe toujours, ou y a-t-il quelque chose d'éternel - cela devrait être considéré plus tard, et il n'y a aucune science sur le sujet. accessoire - cela est évident, car toute science porte sur ce qui existe toujours, ou sur ce qui se passe en grande partie. En effet, comment une personne pourrait-elle autrement apprendre ou enseigner quelque chose à une autre? Après tout, cela doit être défini comme se produisant toujours ou pour quelque chose. la plupart, par exemple, qu'un mélange de miel est utile pour les patients fiévreux dans la plupart des cas. Quant à ce qui va à l’encontre de cela, il sera impossible d’indiquer quand il n’y aura aucun bénéfice du mélange de miel, par exemple lors d’une nouvelle lune, mais alors « sur une nouvelle lune » signifie quelque chose qui arrive toujours ou principalement » (p. . 184 ; 1027a 8-27) .

"... l'accidentel, ou l'accessoire, est quelque chose qui, il est vrai, se produit, mais pas toujours, ni par nécessité ni pour la plupart."

Aléatoire "ce qui, dont la cause n'est pas déterminée, n'arrive pas pour quelque chose et pas toujours et pas pour la plupart, et non selon aucune loi".

"Il n'y a aucune connaissance de l'accidentel, /ou de l'accidentel/, par la preuve. Car l'accidentel n'est ni quelque chose qui arrive nécessairement, ni quelque chose qui arrive en grande partie, mais c'est quelque chose qui arrive en plus des deux."

"Quant aux preuves et aux connaissances sur quelque chose qui arrive souvent, comme une éclipse lunaire, il est clair que, puisqu'elles sont telles, elles sont toujours / les mêmes / puisqu'elles ne sont pas toujours / les mêmes /, elles sont privées"

« Ainsi, certains /événements/ sont généraux (car ils sont toujours et dans tous les cas soit dans cet état, soit se produisent de cette manière), tandis que d'autres ne se produisent pas toujours, mais seulement dans la plupart des cas, par exemple, tous les hommes ne se laissent pas pousser la barbe ; , mais seulement pour la majorité."

« Et comme certaines choses existent par nécessité, d'autres - pour la plupart, et d'autres encore - au hasard, alors /l'interlocuteur/ fournit toujours une occasion commode pour les attaques, s'il fait passer ce qui existe nécessairement comme se produisant pour le plus grand nombre. ou ce qui se passe pour la plupart comme nécessairement existant, que ce soit ce qui se passe pour la plupart ou son contraire. En effet, si /l'interlocuteur/ présente ce qui existe nécessairement comme ce qui se passe pour la plupart, alors c'est. Il est clair qu'il dit que cela n'est pas inhérent à tout, bien qu'en fait cela soit inhérent à tout, donc il se trompe. Et de la même manière - s'il dit cela à propos de quelque chose qui est désigné comme se produisant en grande partie. il existe nécessairement, puisque dans ce cas il dit qu'il est inhérent à tout, bien qu'en fait il ne soit pas inhérent à tout, de même, si à l'inverse de ce qui se passe la plupart du temps, il le fait passer pour nécessairement existant, car le. Le contraire de ce qui arrive le plus souvent est toujours appelé ce qui arrive le plus rarement. Par exemple, si les gens sont pour la plupart mauvais, alors les bonnes personnes sont plus rares, donc l'interlocuteur se trompe encore plus lorsqu'il dit que les gens sont forcément bons. Et de la même manière, ils se trompent lorsqu’ils font passer l’accidentel pour existant nécessairement ou pour se produire en grande partie. Et quand /l'interlocuteur/ n'a pas précisé s'il parlait de l'objet comme de quelque chose qui arrive pour la plupart ou comme de quelque chose qui existe nécessairement, mais /en fait l'objet/ existe pour la plupart, alors vous pouvez discuter avec lui, comme s'il disait que cet objet existe nécessairement. Par exemple, s'il affirme, sans le préciser, que les déshérités sont de mauvaises personnes, alors on peut discuter avec lui, comme s'il soutenait qu'ils sont mauvais par nécessité.

« ... il est évident que tout n'existe pas et n'arrive pas par nécessité, mais certaines choses dépendent du hasard et par rapport à lui, l'affirmation n'est pas plus vraie que la négation et d'autres choses, même si cela arrive plus vraisemblablement et par hasard ; la plupart du temps d'une manière plutôt que d'une autre, mais cela peut arriver autrement, et pas comme ça."

"... certains /événements/ se produisent toujours de la même manière, et d'autres - pour la plupart, alors il est évident que ni pour l'un ni pour l'autre la cause ne peut être considérée comme fortuite ou accidentelle - ni pour ce qui /se produit/ par nécessité et toujours, ni pour ce qui /arrive seulement/ pour la plupart."

"Car le spontané et l'accidentel / a lieu / contrairement à ce qui est ou arrive toujours ou en règle générale."

« Après tout, ce qui est généré par la nature soit toujours, soit en grande partie, surgit de la même manière, et ce qui s'en écarte est toujours ou en grande partie spontané ou accidentel » (c'est moi qui souligne partout - L.B.).

Il ressort clairement de ces textes que pour Aristote la catégorie « pour la plupart » n’est pas moins importante que la nécessité et le hasard. Il pense presque toujours en triade : « nécessaire -

la plupart du temps au hasard. » Par conséquent, les chercheurs qui, dans l’analyse de l’œuvre d’Aristote, se limitent à considérer la paire de catégories « nécessité et hasard », se trompent. Cela contredit la vérité historique, sans parler du fait que cela déforme la position d’Aristote sur la question de la dialectique du nécessaire, du probable et du contingent. La position d'Aristote sur cette question est peut-être beaucoup plus équilibrée et dialectique que celle de nombreux philosophes qui ont vécu après lui, y compris Hegel. Pour le penseur grec, il était absolument clair qu’il existe un lien intermédiaire entre le nécessaire et l’accidentel. Une autre chose est qu'il ne l'a pas étudié aussi minutieusement qu'il l'a fait avec les catégories de nécessaire et d'accidentel. Néanmoins, Aristote a laissé de nombreuses preuves de la manière dont il comprenait la catégorie intermédiaire. Voici un autre texte dans lequel le philosophe, parlant du possible dans deux sens, entend clairement par possible au premier sens le probable :

"... redisons que / l'expression / « être possible » est utilisée dans un double sens : dans un sens, quelque chose qui arrive habituellement, mais qui n'est pas nécessaire, est possible, comme, par exemple, le fait qu'une personne grisonne, ou grossisse, ou perd du poids, ou en général ce qui lui est naturellement inhérent (car tout cela n'est pas lié à la nécessité, puisqu'une personne n'existe pas pour toujours, mais si elle existe, tout cela est soit nécessaire ou arrive habituellement), quelque chose qui peut être vrai ou non, par exemple, un être vivant marche, ou que pendant qu'il marche, un tremblement de terre se produit, et en général tout ce qui arrive est accidentel, car par nature tout cela peut arriver. pas plus que l'inverse. Par conséquent, les prémisses sur chacun de ces types de possibilités sont convertibles en prémisses opposées, mais pas de la même manière : la prémisse sur ce qui se produit par nature est transformable en prémisse sur ce qui est inhérent et non nécessaire. (ainsi, une personne ne peut pas devenir grise) ; cela peut être converti en prémisse que cela peut également être dans un sens ou dans l’autre. Il n’existe pas de science ni de syllogisme démonstratif sur l’indéfini faute d’un moyen terme fermement établi. Ils existent à propos de ce qui se passe par nature. Et sur ce qui est possible dans ce sens, il y a peut-être des discussions et des études. »

Dans deux cas, Aristote parle directement du probable et donne une définition du probable :

"Le probable est une prémisse plausible, car ce que l'on sait se produire dans la plupart des cas de telle ou telle manière ou ne pas se produire, exister ou ne pas exister, est probable, par exemple, pour que les envieux haïssent ou que les amants amour."

« Le probable est ce qui arrive pour la plupart, et non simplement ce qui arrive, comme certains le définissent, mais ce qui peut arriver autrement, il est tellement lié à ce par rapport auquel c'est probable, comme le général l'est au particulier." .

Les deux définitions du terme probable sont tout à fait cohérentes avec les expressions « pour la plupart », « dans la plupart des cas », « habituellement », « en règle générale » utilisées dans les textes précédents. Ainsi, par catégorie intermédiaire (entre le nécessaire et le contingent), Aristote entendait clairement le probable.

Dans notre littérature philosophique, au moins deux auteurs indiquent qu’Aristote avait déjà exploré le problème des probabilités. C'est ce qu'écrit V.I. Kuptsov : « Les concepts de possibilité, de probabilité, de hasard, fermement ancrés dans le langage courant depuis des temps immémoriaux, ont servi à l'homme de moyen, bien qu'imparfait, mais toujours efficace, de comprendre la réalité... Déjà parmi les penseurs anciens, ils sont devenus le sujet de recherches systématiques. Ils sont particulièrement remarquables à cet égard, les travaux d'Aristote, qui examinent en profondeur divers types d'énoncés indéfinis et de conclusions problématiques, analysant leur rôle dans le processus cognitif. En même temps, il étudie attentivement la question du contenu ontologique du. catégories de possibilité, de probabilité et de hasard et attire l'attention sur le fait que les phénomènes de la réalité sont très divers dans la nature de leur mise en œuvre. Certains d'entre eux « se produisent toujours de la même manière, d'autres pour la plupart », tandis que d'autres sont complètement individuels, mais même dans les phénomènes qui « ne se sont pas produits par hasard, beaucoup de choses viennent du hasard » (Aristote. Physique. M. , 1937, p. 38)". Donnons maintenant l’avis d’A.S. Kravets : « L’histoire du problème de la probabilité remonte à des époques assez lointaines. Aristote s’intéressait déjà à ce problème dans sa Rhétorique, il analysait certaines conclusions probabilistes et essayait de définir le concept de probabilité » (ci-après). , A.S. Kravets donne la définition de la probabilité citée ci-dessus - L. B.) « Dans cette définition », écrit-il plus loin, « Aristote tente déjà de relier la probabilité aux catégories de nécessité, de hasard, de possibilité, générale et particulière. »

DANS ET. Kuptsov et A.S. Kravets tenta ainsi de restaurer la justice historique et rendit hommage à Aristote comme premier penseur à étudier le statut objectif de la probabilité.

Malheureusement, un autre grand catégorologue – Hegel – a pratiquement ignoré cette catégorie. E.P. Sitkovsky écrit à ce sujet :

« P.L. Lavrov, dans son ouvrage « L'Hégélisme » (1858), dit que « l'Encyclopédie des sciences philosophiques » de Hegel couvrait en réalité presque tout, en particulier la « Logique » de Hegel. Mais il ajoute aussitôt : « Mais pas entièrement, comme exemple d’omission, on peut citer la théorie des probabilités, une science assez remarquable non seulement au sens pratique, mais aussi au sens métaphysique. » Lavrov indique même la section de la logique hégélienne dans laquelle le concept de probabilité devrait être introduit, à savoir le département de l'essence, la division du « Phénomène » (voir P.L. Lavrov. Philosophy and Sociology, vol. 1, M., 1965, p. 172) .

La probabilité est un concept par lequel le degré de faisabilité d'une possibilité ou d'un hasard est déterminé. Le concept de probabilité joue un rôle important dans les mathématiques modernes, les statistiques économiques, la sociologie, etc. La signification métaphysique de ce concept est qu'il est étroitement lié aux catégories dialectiques de possibilité et de hasard, au concept de loi et de régularité (en particulier statistique). régularité), avec le concept de nécessité (dont la forme de manifestation est le hasard), ainsi qu'avec la catégorie de réalité (puisque la possibilité est toujours considérée dans la perspective de son passage à la réalité). Dans l'usage courant, le concept de probabilité se confond souvent avec le concept de possibilité ; la distinction même entre possibilité abstraite et possibilité réelle contient l'élément de probabilité (plus ou moins, selon la nature de la possibilité). C’est peut-être précisément pour cela que Hegel a contourné le concept de probabilité…

Quoi qu’il en soit, le concept de probabilité porte en réalité une charge métaphysique (comme l’a dit P.L. Lavrov) et doit être présenté dans la logique des catégories. Doit-il apparaître en logique dans les divisions « Phénomènes » ou « Réalité » ou, peut-être, dans la division où l’on parle de quantité ? Doit-il apparaître comme une catégorie indépendante ou comme un concept scientifique particulier utilisé pour faciliter et clarifier l’analyse ? Les catégories sont une question secondaire. En logique formelle, comme on le sait, il existe une distinction entre les catégories de situations difficiles et les prédicabilia, qui sont généralement considérées comme des concepts dérivés dérivés des catégories de situations difficiles. Il est possible d’estimer la valeur catégorique de la probabilité en tant que prévisibilité. »

La raison pour laquelle Hegel a ignoré la catégorie de probabilité est qu’il pensait selon le schéma de la triade « thèse-antithèse-synthèse » (ou « affirmation-déni-négation de la négation »), dans laquelle il n’y avait pas de place pour un lien intermédiaire. La synthèse (« négation de la négation ») a le caractère d'une combinaison de catégories, à la suite de laquelle une nouvelle catégorie apparaît. Dans notre version de la logique catégorielle, la synthèse hégélienne (« négation de la négation ») correspond principalement à la synthèse organique, médiation mutuelle de catégories opposées. Cependant, à côté de la synthèse, dans notre version, une place importante est accordée aux états intermédiaires et transitoires d'une catégorie opposée à une autre. Hegel, emporté par l'idée « synthétique », ne s'aperçoit pas qu'il existe un lien intermédiaire entre les définitions opposées. D’ailleurs, Aristote l’a bien compris. Mais il avait une « faiblesse » par rapport à la représentation « synthétique ». Comparé à Hegel, Aristote semble éclectique.

Ainsi, l’idée de catégories intermédiaires n’était pas caractéristique de Hegel. En conséquence, il a « négligé » qu’il existe une transition en douceur entre le hasard et la nécessité et que cette transition s’exprime dans une catégorie spéciale : la probabilité. À la suite de Hegel, les philosophes marxistes ont longtemps ignoré le statut catégorique de la probabilité et ne lui ont pas trouvé de place dans le système des catégories. DANS ET. Koryukin et M.N. Rutkevich, notant en 1963 que « en tant que catégorie philosophique, la probabilité est beaucoup « plus jeune » qu'en tant que concept logique et mathématique », ils soulevaient seulement la question de la nécessité de la « considérer » « comme une catégorie de dialectique et d'analyser l'application ». de cette catégorie dans divers domaines de la connaissance pour tenter sur cette base de donner une définition philosophique plus générale de la probabilité.

Au cours des trois dernières décennies, la négligence de Hegel à l'égard de la catégorie de probabilité a été progressivement surmontée, et la tâche consistant à déterminer le statut de cette catégorie dans le système des catégories philosophiques s'est posée de plus en plus clairement. Beaucoup a déjà été fait dans ce sens. Les philosophes se rendent de plus en plus compte que la probabilité est un « pont » transitionnel, un lien entre le hasard et la nécessité. Sans couvrir complètement ces catégories, elle « capte » néanmoins une partie de leur « territoire », c'est-à-dire qu'elle embrasse le hasard statistique ou probable et la nécessité statistique ou probable. Ces derniers sont les pôles de probabilité. À cet égard, il peut être présenté ou défini comme l’unité du hasard statistique et de la nécessité statistique.

Nous avons déjà donné ci-dessus la définition de la théorie des probabilités donnée par l'un de ses créateurs, B. Pascal. Selon lui, elle relie « l’incertitude du cas » à la « précision des preuves mathématiques » et non seulement relie, mais « réconcilie » « ces éléments apparemment contradictoires », comme il l’a dit à juste titre. En effet, la probabilité réconcilie le hasard et la nécessité. Dans le sens d'une telle compréhension, de plus en plus de philosophes et de scientifiques écrivent : « la probabilité est une expression du lien entre la nécessité et le hasard ». Une interprétation similaire est donnée par B.I. Rutkevich. et cette possibilité « aléatoire » n’est pas étrangère à la nécessité. Dans le concept de probabilité, nous exprimons le degré de nécessité contenu dans un événement qui peut se produire (mais ne peut pas se produire et est donc aléatoire). »

« La désintégration radioactive », expliquent-ils, « est un exemple remarquable de processus probabiliste objectif... La probabilité (P) de désintégration de tout atome sur t années est exprimée par la formule : P = 1 - e m, où la constante l = 0,000486.

Le schéma de désintégration radioactive est statistique. Avec une probabilité égale pour n'importe quel atome de se désintégrer pendant cette période, certains atomes se désintégreront, d'autres non, et la proportion d'atomes désintégrés dans le nombre total d'atomes sera exprimée avec précision par la formule ci-dessus. Le fait que les atomes N se désintègrent au temps t est une nécessité. Mais le fait que ce soient ces atomes qui se désintègrent, et pas d’autres, par rapport à la nécessité générale du comportement du « collectif » est un accident. Bien entendu, chaque acte de désintégration d’un noyau de radium est déterminé de manière causale. La probabilité est une caractéristique quantitative qui permet de juger comment la nécessité générale s'incarne dans le comportement individuel d'un noyau donné, caractérisant la possibilité de sa désintégration.

Un autre exemple de probabilité dans un processus statistique, où (contrairement à la désintégration radioactive) les raisons des écarts individuels par rapport aux moyennes statistiques, c'est-à-dire la nécessité d'un ordre particulier, sont bien connues.

Supposons que nous ayons un récipient contenant un gaz, par exemple de l'azote, à une température de 148 o C. La vitesse moyenne des molécules d'azote à cette température est calculée par la formule v = y8RT/p et sera égale à environ 570 m/sec. Conformément à la distribution statistique trouvée par Maxwell, certaines molécules ont des valeurs significativement plus grandes (5,4% des molécules ont v > 1000 m/sec) ou significativement plus petites (0,6% des molécules ont v Posons la question : est-il nécessaire qu'une molécule d'acquérir une vitesse supérieure à 1000 m/sec ? La réponse à cette question s'avère inévitablement double : il existe un certain degré de nécessité, c'est-à-dire la probabilité qu'une molécule acquière une vitesse donnée, dans notre exemple cette probabilité est de 0,054. Cette probabilité reflète la présence d'une nécessité générale (article 2 atistique) dans un événement individuel possible.

L.B. écrit la même chose. Bajenov et N.V. Pilipenko. « La loi statistique, estime L.B. Bajenov, exprime la nécessité objective dans son lien inextricable avec le hasard ». Selon N.V. Pilipenko, dans les lois statistiques, « la nécessité et le hasard sont dans l'unité et l'interconnexion ». Il explique:

"Leur interconnexion dans les lois statistiques découle de l'imbrication particulière des grandes et petites causes dans les objets des agrégats statistiques. La nécessité est le résultat de l'homogénéité qualitative des objets et découle de l'action des causes fondamentales. Le hasard est une conséquence de la nature désordonnée. de l'interaction des objets, la susceptibilité de chacun d'eux à l'action de petites causes. Cela dépend à la fois des propriétés générales de la population statistique et des caractéristiques individuelles d'un objet individuel dans une série d'objets identiques et similaires. .

Le mécanisme de l'émergence de la nécessité et du hasard dans les systèmes probabilistes-statistiques... naturels et sociaux et la relation entre ces catégories n'est pas encore clair dans son intégralité. Cependant, ses caractéristiques générales peuvent être imaginées si l'on considère la relation entre le système et ses composants (éléments)...

Les composantes ou éléments inclus dans la structure du système ont, d'une part, un caractère individuel et, d'autre part, un caractère systémique. En tant que composants individuels d'un système, ils présentent des propriétés aléatoires, et en tant qu'éléments en interaction d'un tout unique, ils présentent des propriétés systémiques (nécessaires).

Parlons maintenant de la position des scientifiques sur cette question. E.S. Wentzel écrit : le sujet de la théorie des probabilités « concerne les modèles spécifiques observés dans les phénomènes aléatoires. La pratique montre qu'en observant dans les masses globales de phénomènes aléatoires homogènes, nous y découvrons généralement des modèles bien définis, une sorte de t stable et caractéristique de la masse. phénomènes aléatoires. » Elle donne l’exemple et les commentaires suivants :

« Le récipient contient un certain volume de gaz, constitué d'un très grand nombre de molécules. Chaque molécule subit de nombreuses collisions avec d'autres molécules par seconde et change plusieurs fois sa vitesse et sa direction de mouvement ; la trajectoire de chaque molécule individuelle est aléatoire. On sait que la pression d'un gaz sur la paroi d'un récipient est due à la combinaison des impacts de molécules contre cette paroi. Il semblerait que si la trajectoire de chaque molécule individuelle est aléatoire, alors la pression sur la paroi du récipient devrait changer de manière aléatoire et incontrôlée ; Cependant, ce n’est pas le cas. Si le nombre de molécules est suffisamment grand, alors la pression du gaz est pratiquement indépendante des trajectoires des molécules individuelles et obéit à un modèle très spécifique et très simple.

Les caractéristiques aléatoires inhérentes au mouvement de chaque molécule individuelle se compensent mutuellement dans la masse ; en conséquence, malgré la complexité et l'intrication d'un phénomène aléatoire individuel, nous obtenons un modèle très simple qui est valable pour la masse des phénomènes aléatoires. Notons que c'est la masse des phénomènes aléatoires qui assure l'accomplissement de ce schéma ; avec un nombre limité de molécules, des écarts aléatoires par rapport au modèle, appelés fluctuations, commencent à affecter...

De tels modèles spécifiques, dits « statistiques », sont toujours observés lorsqu’il s’agit d’une masse de phénomènes aléatoires homogènes. Les motifs qui apparaissent dans cette masse s'avèrent pratiquement indépendants des caractéristiques individuelles des phénomènes aléatoires individuels inclus dans la masse. Ces particularités individuelles de la masse semblent s'annuler, s'aplanir, et le résultat moyen de la masse des phénomènes aléatoires s'avère pratiquement plus aléatoire. C'est cette stabilité des phénomènes aléatoires de masse, confirmée à plusieurs reprises par l'expérience, qui sert de base à l'utilisation de méthodes de recherche probabilistes (statistiques).

E.S. Wentzel a bien montré ici que la probabilité se forme à l’intersection des accidents de masse et de la stabilité statistique, modèle inhérent à ces accidents. À la suite d'innombrables collisions de molécules de gaz, des processus irréversibles se produisent en masse, c'est-à-dire que dans chaque cas individuel, le processus direct (par exemple, le mouvement d'une molécule dans une direction à une certaine vitesse) ne s'inverse pas, c'est-à-dire il n'est pas remplacé par un processus inverse (le mouvement d'une molécule en sens inverse à la même vitesse). Cependant, lorsqu'un grand nombre de collisions de molécules se produisent, leurs mouvements avant et arrière semblent s'annuler mutuellement, se neutraliser, et nous avons un processus pseudo-réversible, connu sous le nom de stabilité statistique. La pseudo-réversibilité de tels processus est due au fait que, premièrement, chaque processus direct ne correspond pas au sens strict à un processus inverse (comme c'est le cas, par exemple, dans le mouvement orbital des planètes) - ce n'est qu'à travers de nombreuses collisions que une molécule change la direction du mouvement dans le sens opposé et se retrouve au même endroit ; deuxièmement, il n'y a pas de neutralisation complète, d'annulation mutuelle des processus directs et inverses - le processus gazeux global va dans une direction, ce qui s'exprime dans l'une ou l'autre valeur de stabilité statistique. Ainsi, au niveau macro, il existe une irréversibilité, plus précisément une irréversibilité statistique. Il « se fraye un chemin » à travers une masse de processus aléatoires qui, à un degré ou à un autre, s'éteignent et se neutralisent. À propos de la nécessité statistique (régularité), nous pouvons dire qu'il s'agit de la nécessité (régularité) de processus pseudo- ou quasi-réversibles qui reposent sur des processus massifs irréversibles. (En conséquence, à propos de la /loi/ de nécessité non statistique, nous pouvons dire qu'il s'agit d'une nécessité, d'une loi de processus strictement réversibles (similaire au mouvement orbital des planètes).

UN. Kolmogorov écrit : « La description statistique d'une collection d'objets occupe une position intermédiaire entre la description individuelle de chacun des objets de la collection, d'une part, et la description de la collection selon ses propriétés générales, qui n'ont pas d'importance. tous nécessitent, d’autre part, sa division en objets individuels. Comme on le voit, Kolmogorov souligne directement le caractère intermédiaire de l’approche probabiliste-statistique.

On trouve un argument intéressant dans les travaux du mathématicien A. Renyi. « L'autre jour, en mettant de l'ordre dans mes livres, écrit-il, je suis tombé sur les « Méditations » de Marc Aurèle et j'ai ouvert par hasard la page où il parle de deux possibilités : soit le monde est un immense chaos, soit l'ordre et la régularité y règne. de deux possibilités mutuellement exclusives est réalisée, une personne réfléchie doit décider par elle-même... Et bien que j'ai déjà lu ces lignes plusieurs fois, mais maintenant, pour la première fois, j'ai réfléchi à pourquoi, en fait, Marc Aurèle croyait-il que le monde était dominé soit par le hasard, soit par l'ordre et le modèle ? Pourquoi pensait-il que ces deux possibilités s'excluent ? Il me semble qu'en réalité les deux affirmations ne se contredisent pas, et qu'elles agissent simultanément : le hasard règne ? le monde, l'ordre et la régularité opèrent en même temps... C'est pourquoi moi et moi attachons une telle importance à la clarification du concept de probabilité et m'intéressons aux questions inextricablement liées à celle-ci -

A. Renyi relie la probabilité au fait que le hasard et l'ordre, la régularité, opèrent dans le monde en même temps. Ainsi, il indique indirectement que la probabilité repose sur l’unité du hasard et de la nécessité.

M. Born a écrit : « La nature, comme les affaires humaines, semble être soumise à la fois à la nécessité et au hasard. Et pourtant, même le hasard n’est pas complètement arbitraire, car il existe des lois du hasard formulées dans la théorie mathématique des probabilités. » Notre philosophie est dualiste ; la nature est régie par une sorte d’enchevêtrement de lois de cause et de lois du hasard.

Il écrit en outre : « Je veux dire des modèles d’un type complètement différent, où nous avons affaire à un grand nombre d’objets, à savoir des lois statistiques ou, plus précisément, des lois stochastiques (le terme « stochastique » est utilisé de nos jours lorsqu’il s’agit d’un système constitué de. de nombreuses particules, change d'état en raison d'influences et d'interactions aléatoires.)

Pour bien expliquer ces schémas, il faut appliquer la théorie des probabilités, développée par Pascal pour mieux comprendre les jeux dans lesquels le hasard joue un rôle majeur. Depuis la description du jeu, cette discipline mathématique a apporté un nouvel éclairage sur de nombreux autres types d’activités humaines. Actuellement, il est utilisé dans le secteur des assurances, pour l’étude des processus de production, dans la répartition et la régulation des flux de trafic et dans de nombreux autres domaines. Il est également utilisé dans de nombreuses branches de la connaissance, par exemple dans l'astronomie stellaire, la génétique, l'épidémiologie, l'étude de la répartition des espèces végétales et animales, etc.

En physique, les méthodes statistiques sont étroitement liées au concept atomistique...

Le mouvement d’un atome dans un gaz est un processus qui allie régularité et hasard. La physique a utilisé avec succès la combinaison de ces deux caractéristiques dans la construction d'un bâtiment remarquable appelé la théorie statistique de la chaleur" (c'est moi qui souligne - L.B.).

Selon M. Born, l'approche probabiliste-statistique repose sur une combinaison, comme il le dit lui-même, de régularité et de hasard. Les commentaires, comme on dit, sont inutiles.

L.V. Tarassov écrit : « l’unité dialectique du nécessaire et de l’accidentel, qui s’exprime d’ailleurs par la probabilité ».

Chez les philosophes, il existe parfois l’idée de la probabilité comme « degré de possibilité » ou « mesure quantitative de possibilité ». Cette représentation capture uniquement le fait que la probabilité peut être plus ou moins grande, qu'elle est dénombrable (en utilisant les méthodes de la théorie des probabilités). Cependant, cela ne dit rien sur la nature de la probabilité. Après tout, on peut parler de hasard comme de plus ou moins, et de nécessité. Et en général, toute définition catégorique peut en quelque sorte être caractérisée d'un point de vue quantitatif. Par exemple, le calcul des contradictions n'a pas encore été créé, même si l'on sait depuis longtemps que les contradictions ont leurs propres minimums et maximums. Nous osons dire qu’un tel calcul se créera au fil du temps. Toutes les définitions catégoriques objectives ont un côté quantitatif et sont donc inévitablement confrontées à une mathématisation.

Les déclarations ci-dessus des philosophes et des scientifiques révèlent la nature de la probabilité en tant que catégorie intermédiaire reliant le hasard et la nécessité. Ce n'est que dans les coordonnées de ces catégories que son contenu est déterminé et peut être caractérisé comme ayant un degré plus ou moins grand.

COMME. Kravets dans son livre « La nature de la probabilité » a donné une analyse significative de cette catégorie et a montré qu'elle « supprime » l'opposition entre hasard et nécessité. « Dans toute séquence aléatoire », écrit-il, « malgré son irrégularité et son désordre, il existe une distribution d'éléments complètement stable. Dans la séquence chaotique d'événements aléatoires, une certaine régularité est capturée (généralement appelée régularité stochastique), qui est qualitativement différente. des schémas de détermination rigide et constitue une base objective des lois probabilistes. En analysant la nature des lois probabilistes, nous verrons un lien profond entre le hasard et la nécessité.

Selon A.S. Kravets « la structure probabiliste a trois propriétés spécifiques : 1) l'unité d'irrégularité et de stabilité dans la classe d'événements ; 2) l'unité d'autonomie et de dépendance des événements ; 3) l'unité de désordre et d'ordre dans la classe d'événements. » Concernant la probabilité comme unité d’irrégularité et de stabilité dans la classe d’événements, il écrit :

"Dans les termes les plus généraux, l'irrégularité peut être caractérisée comme l'absence de régularité, c'est-à-dire une régularité stable dans le processus de réalisation des événements. On dit par exemple que les événements peuvent se réaliser dans tel ou tel ordre. Si la séquence Si le déroulement des événements est irrégulier, cela signifie que ces événements peuvent, en principe, se réaliser dans un autre ordre. Si nous supposons maintenant que les événements se dérouleront selon notre deuxième plan, alors l'irrégularité signifie que ce plan peut à nouveau être facilement violé, etc. . L'irrégularité est une violation constante et le non-respect de règles prédéterminées pour la mise en œuvre d'événements...

L'irrégularité du comportement est inhérente à tout système probabiliste. Au contraire, un système dont le comportement est caractérisé par la régularité est soumis aux lois de la stricte détermination. Si, par exemple, nous lançons au hasard une aiguille métallique sur un plan graphique, alors l'aiguille frappant différentes zones sera irrégulière et nous ne pouvons calculer que la probabilité que l'aiguille touche une certaine zone. Mais si vous placez un plan entre les pôles d'un aimant, alors le processus devient immédiatement régulier et la chute de l'aiguille obéira à une certaine loi sans ambiguïté.

L'irrégularité s'exprime ainsi dans la variabilité du comportement des objets observés, dans la profonde variabilité du comportement, dans le haut dynamisme des systèmes probabilistes...

Cependant, l’irrégularité constatée dans le comportement des systèmes probabilistes n’est en aucun cas absolue. Dans le désordre des événements individuels se réalisent une certaine régularité de l'ensemble des événements dans leur ensemble, une certaine stabilité d'ensemble de cet ensemble. Bien que dans chaque cas individuel « tout » puisse arriver (bien sûr, uniquement dans le cadre du possible), néanmoins, en général, dans un large ensemble d'événements aléatoires, certains groupes stables de tels événements sont toujours reproduits. L'irrégularité de la mise en œuvre des événements individuels s'avère limitée par la stabilité de leur multitude dans son ensemble, grâce à laquelle les relations entre les événements acquièrent un certain caractère naturel et répétitif. En pratique, ceci est généralement enregistré sous la forme de fréquences relatives stables de réalisation de certains événements tendant vers une valeur constante.

L'étonnante stabilité des paramètres des systèmes probabilistes, bien connue des ouvrages de référence statistiques (le nombre de décès par an, le nombre de couples divorcés par an, le nombre de garçons dans l'ensemble de la population des nouveau-nés par an, le nombre de précipitations par an, etc.), est une manifestation de lois objectives, qui prescrivent certaines limites au cas. C’est le type stable de relations entre les éléments qui forment un système probabiliste, le caractère stable des changements qui s’y produisent continuellement, qui permettent de déduire une certaine loi probabiliste du comportement du système. Ainsi, le comportement d'un système probabiliste révèle une unité dialectique de variabilité, qui brise dans chaque cas individuel le cours figé et immuable des processus, et de stabilité, qui dirige généralement cette variabilité le long d'un certain canal de tendances naturelles" 1 .

Parlons maintenant de la probabilité comme unité d'autonomie et de dépendance des événements :

« L'idée de probabilité est organiquement liée à l'idée d'indépendance des événements observés. Les approches classique et fréquentielle pour déterminer la probabilité sont basées sur l'idée que la réalisation des événements se produit de manière indépendante les unes des autres, comme ce qui fait que leurs probabilités s'avèrent indépendantes les unes par rapport aux autres.

À mesure que les concepts théoriques probabilistes se développaient, le rôle du principe d’autonomie dans la connaissance des systèmes matériels devint de plus en plus clairement compris. Chaque nouvelle étape dans l'élargissement du champ d'application des concepts de la théorie des probabilités a porté un coup dur à l'image métaphysique du monde, selon laquelle le monde est un système d'événements strictement déterminé. Dans un tel système, tout est également significatif, tout a la même signification pour le sort de l'Univers - un grain de poussière et une planète, la vie d'un individu et le sort d'un peuple. Dans le monde rigide et figé de la détermination sans ambiguïté, tout événement est prédéterminé par des événements antérieurs, il n'y a pas de place pour des phénomènes autonomes, il n'y a pas d'accidents, le tout est strictement déterminé par ses parties (p. 60).

L'autonomie des phénomènes est une des propriétés fondamentales de la réalité objective, non moins fondamentale que leur interdépendance (p. 62).

En science, la reconnaissance du principe d'autonomie des systèmes s'est accompagnée de l'approbation de méthodes probabilistes-statistiques pour leur étude et de l'établissement de lois probabilistes de comportement des objets. L'autonomie exprime une caractéristique essentielle d'une connexion probabiliste, et le concept de probabilité lui-même repose directement sur l'idée d'un ensemble d'événements indépendants. Dans les concepts de la théorie des probabilités, l'idée d'autonomie n'est pas une sorte d'appendice supplémentaire, mais représente l'un des principes méthodologiques fondamentaux, l'un des axiomes déterminants de la théorie des probabilités » (p. 63).

« Au départ, la base des concepts de la théorie des probabilités était le concept d'un événement absolument indépendant. Cependant, il est vite devenu clair que les modèles mathématiques ainsi obtenus ne sont pas applicables à de nombreux phénomènes auxquels nous avons dû revenir. l'idée de dépendance encore, mais cette fois sur une base nouvelle, théorique et probabiliste, un nouveau concept a été développé, adapté aux situations étudiées - le concept de dépendance probabiliste.

Il est étonnant de constater à quel point la dialectique fait son chemin dans la connaissance de manière inattendue ! À l'époque de la domination du déterminisme dur, qui ne reconnaissait que l'interdépendance sans ambiguïté des phénomènes, l'idée d'autonomie locale était tacitement assumée comme une condition nécessaire pour identifier des liens causals durs. En effet, de l'ensemble infini des connexions de l'Univers, il n'est possible d'isoler une connexion rigide et strictement sans ambiguïté que sous une condition importante, à savoir, à condition que le groupe local de phénomènes sélectionné ne dépende pas de tous les autres phénomènes dans l'univers. Ainsi, le déterminisme mécaniste, tout en niant explicitement l'idée d'autonomie, en même temps la reconnaissait implicitement à chaque étape, par rapport à chaque connexion individuelle.

Avec la méthode de considération probabiliste-statistique, au contraire, ils ont commencé par l'hypothèse de l'autonomie des phénomènes étudiés et n'ont ensuite été contraints de limiter cette autonomie et de formuler l'idée de dépendance probabiliste. Une dépendance probabiliste est qualitativement différente d'une dépendance de type strictement déterministe : une telle dépendance exclut une connexion rigide et sans ambiguïté entre les phénomènes, ne permettant qu'une connexion entre les probabilités de leur mise en œuvre. Initialement, l'idée de dépendance probabiliste a été formulée en relation avec des événements aléatoires élémentaires, ce qui a conduit au développement du concept de probabilité conditionnelle. Cette idée a ensuite été généralisée aux variables aléatoires, ce qui a conduit à l’introduction du concept de loi de distribution de probabilité conditionnelle. Enfin, l'idée de dépendance probabiliste s'est développée en relation avec le concept de fonctions aléatoires, ce qui a conduit à l'émergence de la théorie des processus probabilistes (stochastiques). Dans la théorie des probabilités, une section spéciale a émergé : l'analyse de corrélation, dans laquelle les propriétés mathématiques des dépendances probabilistes sont étudiées (p. 64-65).

À propos de la probabilité en tant que combinaison de désordre et d'ordre A.S. Kravets écrit :

"La troisième caractéristique des relations qui se développent dans la classe des événements aléatoires est une combinaison caractéristique de désordre et d'ordre. L'ordre est généralement compris comme une certaine structure régulière d'événements, une certaine cohérence dans l'espace et dans le temps, une certaine relation régulière entre leur volumétrie et d'autres paramètres, la cohérence entre leurs fonctions, etc. Tous les systèmes ont de l'ordre à un degré ou à un autre, mais les systèmes probabilistes, ainsi que l'ordre, sont également caractérisés par un certain chaos. Parfois, pour justifier l'approche probabiliste, des hypothèses correspondantes sur le manque d'ordre. dans le système étudié sont spécialement introduits. Un système probabiliste se distingue par l'absence de liens rigides entre les éléments, l'autonomie des éléments, le caractère irrégulier des relations, etc...

En physique, le désordre dans les relations entre les éléments d'un système probabiliste se reflète dans l'idée de « chaos moléculaire », ou « désordre moléculaire ». « La particularité du mouvement appelé chaleur, notait J. Maxwell, est qu'il est complètement désordonné » (J. C. Maxwell. Articles et discours. M.-L., 1940, p. 125)

Toutefois, la présence de désordre dans le système ne doit pas être considérée comme une preuve de l’absence de régularité dans les relations entre les éléments. Les notions d'ordre et de désordre sont corrélatives, corrélatives. Le désordre, étant l'opposé dialectique de l'ordre, ne signifie pas l'absence de toute régularité objective dans le comportement des éléments du système, mais la présence d'une régularité probabiliste spécifique, tout comme l'irrégularité n'exprime pas l'absence générale de toute régularité dans le comportement des éléments du système. la mise en œuvre d'événements, mais seulement la présence d'une régularité stochastique spécifique, une tendance stable reproduisant de nombreux événements dans leur ensemble.

Ainsi, dans les systèmes, le désordre est toujours associé à des schémas probabilistes...

L'ordre absolu et le désordre absolu sont les limites du spectre des structures possibles, de l'organisation possible des systèmes. L'ordre absolu est généralement observé dans un système strictement déterminé, où toute autonomie des sous-systèmes est exclue. Au contraire, le désordre absolu caractérise les systèmes de sous-systèmes indépendants et égaux dans un sens probabiliste. Cependant, dans la réalité objective, ces deux cas limites se réalisent assez rarement et représentent plutôt une sorte d'idéalisation. La plupart des systèmes réels se situent entre ces cas extrêmes...

Ainsi, les systèmes qui obéissent à des lois probabilistes sont caractérisés par une structure spécifique, qui les distingue qualitativement des systèmes qui obéissent à des formes rigides de détermination... L'existence de systèmes qui ont une structure probabiliste spécifique est la base objective des concepts probabilistes » (p. 66-68) .

COMME. Kravets conclut à juste titre que la probabilité est de nature intermédiaire, mais lui, comme tout spécialiste immergé dans son domaine de recherche, exagère quelque peu l'importance de la probabilité, ne considérant l'improbabilité du hasard et la nécessité que des cas limites, qui « se réalisent assez rarement et représentent plutôt une certaine idéalisation. Il est possible de dire à l'avance, a priori, que tous les états intermédiaires sont possibles et n'existent que grâce à la présence d'états extrêmes clairement définis. S’il n’y a pas de derniers, alors il n’y a pas de premiers. C'est drôle de dire qu'ils représentent « plutôt une sorte d'idéalisation ». Si nous nions la réalité des États extrêmes, nous coupons alors la branche sur laquelle nous sommes assis, c'est-à-dire que nous serons obligés de nier la réalité des États intermédiaires. Les États intermédiaires sont intermédiaires car ils se « situent » quelque part entre les États extrêmes et leur existence dépend de l’existence de ces États. La probabilité est de nature intermédiaire en raison du fait qu'il existe un hasard et une nécessité - des pôles d'interdépendance. Située entre eux, la probabilité ne les absorbe pas, mais les relie, effectuant une transition d'un pôle d'interdépendance à un autre. C'est sa signification et son but.

Sur le caractère intermédiaire et duel de la probabilité, A.S. Kravets écrit à un autre endroit du livre :

« Pour comprendre la nature de la probabilité, il est essentiel qu'elle soit toujours associée à l'analyse de relations données sur un certain ensemble d'événements. Le concept de probabilité n'a aucun sens sans considérer l'ensemble des événements... Cependant, le concept de. la probabilité n’a aucune signification même si elle n’est pas incluse dans un certain élément ou sous-ensemble de l’ensemble d’éléments d’origine, la probabilité est une caractéristique structurelle du comportement d’un élément dans une série d’éléments identiques et similaires qui forment une intégrale. système... La probabilité est précisément la caractéristique qui relie un élément individuel au système dans son ensemble et permet de distinguer des relations stables entre les éléments du système. autonomie, désordre, occupant une position intermédiaire avec les paramètres du système dans son ensemble et comme un ensemble d'éléments autonomes (événements, résultats, phénomènes attendus).

COMME. Kravets conclut :

« De l'analyse des structures probabilistes découle une conclusion philosophique importante sur la complexité et la nature profondément dialectique de la structure de notre monde. Des concepts philosophiques qui absolutisent l'ordre « originel » du monde extérieur, la connectivité rigide des phénomènes dans l'Univers. la connexion sans ambiguïté des objets, apparemment, est tout aussi arbitraire et unilatérale, ainsi que les concepts qui décrivent le monde sous la forme d'un chaos primordial et éternel, qui absolutisent l'indépendance des phénomènes de l'absolutisation de l'interdépendance et de l'ordre, fatalistes. des concepts tels que le déterminisme laplacéen suivent, tandis que l'absolutisation du désordre mondial conduit à des concepts finis tels que la « mort thermique de l'Univers ».

Cependant, l’image physique réelle du monde ne peut ni être entièrement placée dans le lit procustéen du déterminisme absolu, ni immergée dans le brouillard amorphe des idées sur l’Univers chaotique.

La nature intermédiaire de la probabilité est indiquée par le fait que la stabilité probabiliste peut « se rapprocher » du hasard, c’est-à-dire être plus spécifique, et peut « se rapprocher » de la nécessité, c’est-à-dire être plus générale. Le premier type de stabilité probabiliste est généralement classé parmi les régularités statistiques empiriques. Le deuxième type appartient à la catégorie des lois statistiques théoriques. Certains scientifiques et philosophes doutent même qu’il soit possible d’appeler dans tous les cas des lois empiriques sur la stabilité statistique particulière. Et dans une certaine mesure, ils ont raison. La stabilité probabiliste se transforme « en douceur » en processus purement aléatoires de nature incertaine. Plus le domaine qu’elles couvrent est étroit, plus elles s’apparentent au pur hasard et moins il y a de raisons de les qualifier de lois empiriques. (Pour plus d'informations à ce sujet, voir ci-dessous le paragraphe 3522.3 « Régularité statistique »).

Beaucoup, confrontés au concept de « théorie des probabilités », ont peur, pensant qu’il s’agit de quelque chose de bouleversant et de très complexe. Mais en réalité, tout n’est pas si tragique. Aujourd'hui, nous examinerons le concept de base de la théorie des probabilités et apprendrons comment résoudre des problèmes à l'aide d'exemples spécifiques.

La science

Qu’étudie une branche des mathématiques telle que la « théorie des probabilités » ? Elle note les modèles et les quantités. Les scientifiques se sont intéressés pour la première fois à cette question au XVIIIe siècle, lorsqu’ils étudiaient les jeux de hasard. Le concept de base de la théorie des probabilités est celui d’un événement. C'est tout fait établi par l'expérience ou l'observation. Mais qu’est-ce que l’expérience ? Un autre concept de base de la théorie des probabilités. Cela signifie que cet ensemble de circonstances n’a pas été créé par hasard, mais dans un but précis. Quant à l'observation, ici le chercheur lui-même ne participe pas à l'expérience, mais est simplement témoin de ces événements, il n'influence en rien ce qui se passe ;

Événements

Nous avons appris que le concept de base de la théorie des probabilités est un événement, mais nous n’avons pas considéré sa classification. Tous sont répartis dans les catégories suivantes :

  • Fiable.
  • Impossible.
  • Aléatoire.

Quel que soit le type d’événements qu’ils sont, observés ou créés au cours de l’expérience, ils sont tous soumis à cette classification. Nous vous invitons à vous familiariser avec chaque type séparément.

Événement fiable

Il s’agit d’une circonstance pour laquelle l’ensemble des mesures nécessaires a été pris. Afin de mieux comprendre l'essence, il vaut mieux donner quelques exemples. La physique, la chimie, l’économie et les mathématiques supérieures sont soumises à cette loi. La théorie des probabilités inclut un concept aussi important qu'un événement fiable. Voici quelques exemples:

  • Nous travaillons et recevons une compensation sous forme de salaire.
  • Nous avons bien réussi les examens, réussi le concours et pour cela, nous recevons une récompense sous la forme d'une admission dans un établissement d'enseignement.
  • Nous avons investi de l'argent à la banque et, si nécessaire, nous le récupérerons.

De tels événements sont fiables. Si nous avons rempli toutes les conditions nécessaires, nous obtiendrons certainement le résultat escompté.

Événements impossibles

Nous examinons maintenant des éléments de la théorie des probabilités. Nous proposons de passer à une explication du type d'événement suivant, à savoir l'impossible. Tout d'abord, stipulons la règle la plus importante : la probabilité d'un événement impossible est nulle.

On ne peut pas s'écarter de cette formulation lors de la résolution de problèmes. Pour plus de clarté, voici des exemples de tels événements :

  • L'eau a gelé à une température de plus dix (c'est impossible).
  • Le manque d’électricité n’affecte en rien la production (tout aussi impossible que dans l’exemple précédent).

Il ne vaut pas la peine de donner plus d'exemples, car ceux décrits ci-dessus reflètent très clairement l'essence de cette catégorie. Un événement impossible ne se produira jamais au cours d’une expérience, quelles que soient les circonstances.

Événements aléatoires

Lors de l’étude des éléments de la théorie des probabilités, une attention particulière doit être portée à ce type particulier d’événement. C'est ce que la science étudie. À la suite de l’expérience, quelque chose peut se produire ou non. De plus, le test peut être effectué un nombre illimité de fois. Des exemples frappants incluent :

  • Le tirage au sort est une expérience ou un test, l'atterrissage des faces est un événement.
  • Sortir aveuglément une balle d'un sac est un test ; obtenir une balle rouge est un événement, et ainsi de suite.

Il peut y avoir un nombre illimité de tels exemples, mais, en général, l’essentiel doit être clair. Pour résumer et systématiser les connaissances acquises sur les événements, un tableau est fourni. La théorie des probabilités n’étudie que le dernier type de tous ceux présentés.

Nom

définition

Fiable

Des événements qui se produisent avec une garantie à 100% si certaines conditions sont remplies.

Admission dans un établissement d'enseignement après avoir réussi l'examen d'entrée.

Impossible

Des événements qui ne se produiront jamais, sous aucun prétexte.

Il neige à une température de l'air de plus trente degrés Celsius.

Aléatoire

Un événement qui peut ou non se produire lors d'une expérience/d'un test.

Un succès ou un échec lors du lancement d'un ballon de basket dans un cerceau.

Lois

La théorie des probabilités est une science qui étudie la possibilité qu’un événement se produise. Comme les autres, il a quelques règles. Les lois suivantes de la théorie des probabilités existent :

  • Convergence de séquences de variables aléatoires.
  • Loi des grands nombres.

Lors du calcul de la possibilité de quelque chose de complexe, vous pouvez utiliser un ensemble d’événements simples pour obtenir un résultat de manière plus simple et plus rapide. Notez que les lois peuvent être facilement prouvées à l’aide de certains théorèmes. Nous vous suggérons de vous familiariser d'abord avec la première loi.

Convergence de séquences de variables aléatoires

Notez qu’il existe plusieurs types de convergence :

  • La séquence de variables aléatoires converge en probabilité.
  • Presque impossible.
  • Convergence carrée moyenne.
  • Convergence des distributions.

Donc, d’emblée, il est très difficile d’en comprendre l’essence. Voici des définitions qui vous aideront à comprendre ce sujet. Commençons par la première vue. La séquence s'appelle convergent en probabilité, si la condition suivante est remplie : n tend vers l'infini, le nombre vers lequel tend la suite est supérieur à zéro et proche de un.

Passons à la vue suivante, presque certainement. On dit que la suite converge presque certainementà une variable aléatoire avec n tendant vers l’infini et P tendant vers une valeur proche de l’unité.

Le type suivant est convergence quadratique moyenne. Lors de l'utilisation de la convergence SC, l'étude des processus aléatoires vectoriels se réduit à l'étude de leurs processus aléatoires coordonnés.

Il reste un dernier type, examinons-le brièvement afin que nous puissions passer directement à la résolution des problèmes. La convergence dans la distribution a un autre nom : « faible », et nous expliquerons pourquoi plus tard. Faible convergence est la convergence des fonctions de distribution en tous points de continuité de la fonction de distribution limite.

Nous tiendrons certainement notre promesse : la convergence faible diffère de tout ce qui précède en ce que la variable aléatoire n'est pas définie dans l'espace des probabilités. Ceci est possible car la condition est formée exclusivement à l’aide de fonctions de distribution.

Loi des grands nombres

Théorèmes de théorie des probabilités, tels que :

  • L'inégalité de Chebyshev.
  • Théorème de Chebyshev.
  • Théorème de Chebyshev généralisé.
  • Théorème de Markov.

Si l'on considère tous ces théorèmes, alors cette question peut s'éterniser sur plusieurs dizaines de feuilles. Notre tâche principale est d’appliquer la théorie des probabilités dans la pratique. Nous vous suggérons de le faire dès maintenant. Mais avant cela, regardons les axiomes de la théorie des probabilités ; ils seront les principaux assistants dans la résolution des problèmes.

Axiomes

Nous avons déjà rencontré le premier lorsque nous parlions d'un événement impossible. Rappelons-le : la probabilité d'un événement impossible est nulle. Nous avons donné un exemple très frappant et mémorable : la neige est tombée à une température de l'air de trente degrés Celsius.

La seconde est la suivante : un événement fiable se produit avec une probabilité égale à un. Nous allons maintenant montrer comment écrire cela en langage mathématique : P(B)=1.

Troisièmement : un événement aléatoire peut se produire ou non, mais la possibilité varie toujours de zéro à un. Plus la valeur est proche de un, plus les chances sont grandes ; si la valeur s'approche de zéro, la probabilité est très faible. Écrivons ceci en langage mathématique : 0<Р(С)<1.

Considérons le dernier, quatrième axiome, qui ressemble à ceci : la probabilité de la somme de deux événements est égale à la somme de leurs probabilités. Nous l’écrivons en langage mathématique : P(A+B)=P(A)+P(B).

Les axiomes de la théorie des probabilités sont les règles les plus simples et faciles à retenir. Essayons de résoudre quelques problèmes sur la base des connaissances que nous avons déjà acquises.

Billet de loterie

Tout d’abord, regardons l’exemple le plus simple : une loterie. Imaginez que vous ayez acheté un billet de loterie pour vous porter chance. Quelle est la probabilité que vous gagniez au moins vingt roubles ? Au total, mille billets sont en circulation, dont un avec un prix de cinq cents roubles, dix avec un prix de cent roubles chacun, cinquante avec un prix de vingt roubles et cent avec un prix de cinq. Les problèmes de probabilité sont basés sur la recherche d’une possibilité de chance. Nous allons maintenant analyser ensemble la solution à la tâche ci-dessus.

Si nous utilisons la lettre A pour désigner un gain de cinq cents roubles, alors la probabilité d'obtenir A sera égale à 0,001. Comment avons-nous obtenu cela ? Il suffit de diviser le nombre de tickets « chanceux » par leur nombre total (dans ce cas : 1/1000).

B est un gain de cent roubles, la probabilité sera de 0,01. Maintenant nous avons agi selon le même principe que dans l'action précédente (10/1000)

C - les gains sont de vingt roubles. On retrouve la probabilité, elle est égale à 0,05.

Nous ne sommes pas intéressés par les billets restants, car leur dotation est inférieure à celle spécifiée dans la condition. Appliquons le quatrième axiome : la probabilité de gagner au moins vingt roubles est P(A)+P(B)+P(C). La lettre P désigne la probabilité d'occurrence d'un événement donné ; nous les avons déjà rencontrés dans des actions précédentes. Il ne reste plus qu'à additionner les données nécessaires, et la réponse que nous obtenons est 0,061. Ce numéro sera la réponse à la question de la tâche.

Jeu de cartes

Les problèmes de théorie des probabilités peuvent être plus complexes ; par exemple, prenons la tâche suivante. Devant vous se trouve un jeu de trente-six cartes. Votre tâche est de tirer deux cartes d'affilée sans mélanger la pile, les première et deuxième cartes doivent être des as, la couleur n'a pas d'importance.

Tout d'abord, trouvons la probabilité que la première carte soit un as, pour cela nous divisons quatre par trente-six. Ils l'ont mis de côté. On sort la deuxième carte, ce sera un as avec une probabilité de trois trente-cinquièmes. La probabilité du deuxième événement dépend de la carte que l'on a tirée en premier, on se demande si c'était un as ou non. Il s'ensuit que l'événement B dépend de l'événement A.

L'étape suivante consiste à trouver la probabilité d'occurrence simultanée, c'est-à-dire que l'on multiplie A et B. Leur produit est obtenu comme suit : on multiplie la probabilité d'un événement par la probabilité conditionnelle d'un autre, que l'on calcule en supposant que le premier L'événement s'est produit, c'est-à-dire que nous avons tiré un as avec la première carte.

Pour que tout soit clair, donnons une désignation à un élément tel que les événements. Il est calculé en supposant que l'événement A s'est produit. Il est calculé comme suit : P(B/A).

Continuons à résoudre notre problème : P(A * B) = P(A) * P(B/A) ou P(A * B) = P(B) * P(A/B). La probabilité est égale à (4/36) * ((3/35)/(4/36). On calcule en arrondissant au centième le plus proche. On a : 0,11 * (0,09/0,11) = 0,11 * 0, 82 = 0,09 La probabilité que nous tirions deux as d'affilée est de neuf centièmes. La valeur est très faible, ce qui signifie que la probabilité que l'événement se produise est extrêmement faible.

Numéro oublié

Nous proposons d'analyser plusieurs autres variantes de tâches étudiées par la théorie des probabilités. Vous avez déjà vu des exemples de résolution de certains d'entre eux dans cet article. Essayons de résoudre le problème suivant : le garçon a oublié le dernier chiffre du numéro de téléphone de son ami, mais comme l'appel était très important, il a commencé à tout composer un par un. . Nous devons calculer la probabilité qu'il n'appelle pas plus de trois fois. La solution au problème est plus simple si les règles, lois et axiomes de la théorie des probabilités sont connus.

Avant de chercher la solution, essayez de la résoudre vous-même. On sait que le dernier chiffre peut aller de zéro à neuf, soit dix valeurs au total. La probabilité d’obtenir le bon est de 1/10.

Ensuite, nous devons considérer les options pour l'origine de l'événement, supposons que le garçon ait bien deviné et ait immédiatement tapé le bon, la probabilité d'un tel événement est de 1/10. Deuxième option : le premier appel manque, et le second est cadré. Calculons la probabilité d'un tel événement : multipliez 9/10 par 1/9, nous obtenons également 1/10. La troisième option : les premier et deuxième appels étaient à la mauvaise adresse, ce n'est qu'avec le troisième que le garçon est arrivé là où il voulait. Nous calculons la probabilité d'un tel événement : 9/10 multiplié par 8/9 et 1/8, ce qui donne 1/10. Nous ne sommes pas intéressés par d'autres options selon les conditions du problème, il suffit donc d'additionner les résultats obtenus, au final nous avons 3/10. Réponse : la probabilité que le garçon n'appelle pas plus de trois fois est de 0,3.

Cartes avec des chiffres

Il y a neuf cartes devant vous, sur chacune desquelles est inscrit un chiffre de un à neuf, les chiffres ne sont pas répétés. Ils ont été mis dans une boîte et soigneusement mélangés. Il faut calculer la probabilité que

  • un nombre pair apparaîtra ;
  • à deux chiffres.

Avant de passer à la solution, stipulons que m est le nombre de cas réussis et n est le nombre total d'options. Trouvons la probabilité que le nombre soit pair. Il ne sera pas difficile de calculer qu’il y a quatre nombres pairs, ce sera notre m, il y a neuf options possibles au total, c’est-à-dire m=9. Alors la probabilité est de 0,44 ou 4/9.

Considérons le deuxième cas : le nombre d'options est de neuf, et il ne peut y avoir aucun résultat positif, c'est-à-dire que m est égal à zéro. La probabilité que la carte tirée contienne un numéro à deux chiffres est également nulle.

Le résultat, le résultat du test s'appelle événement. Les événements sont : l'apparition d'un blason ou de chiffres, le fait d'atteindre la cible ou de manquer, l'apparition d'un certain nombre de points sur un dé lancé. Les majuscules de l'alphabet latin sont utilisées pour désigner des événements: A, B, C etc.

Si à chaque essai au cours duquel un événement survient UN, un événement se produit DANS, alors ils disent que UN implique un événement DANS(inclus dans DANS, est un cas particulier, variante DANS) ou DANS comprend l'événement UN, et désigne UN B.

Les deux événements sont appelés compatible , si la comparution de l’un d’eux n’exclut pas la comparution de l’autre dans le même procès.

Les 2 événements sont appelés incompatible , si la comparution de l’un d’eux exclut la comparution de l’autre dans le même procès.

L'incompatibilité de plus de deux événements dans un essai donné signifie qu'ils sont incompatibilité par paire .

Deux événements UN Et DANS sont appelés opposé , si dans ce test ils incompatible et l’un d’eux se produira certainement. Événement opposé à l'événement UN, dénoter .

L'événement s'appelle fiable (on note ), si dans un test donné c'est le seul résultat possible, et impossible, si dans un test donné cela ne peut évidemment pas se produire. L'événement s'appelle impossible (on note Ø ) si, à la suite du test, cela ne peut pas du tout se produire.

Événement UN appelé aléatoire , si cela peut objectivement se produire ou non dans un test donné.

Algèbre des événements.

La somme des événements A et B événement appelé C = A + B, consistant en la survenance d'au moins un des événements A ou B.

De même, la somme d'un nombre fini d'événements A 1, A 2, ..., A k est l'événement UNE = UNE 1 +A 2 + ... + A k, consistant en la survenance d'au moins un des événements A je, (je= 1, ...,k).

De la définition il résulte que A + B = B + A. La propriété associative est également vraie. Cependant A + A = A(pas 2A).

Le produit des événements A et B événement appelé C = AB, consistant dans le fait qu'à la suite du test, l'événement A et l'événement B se sont produits.

De même, le produit d'un nombre fini d'événements A1, A2, ..., Ak est l'événement A = A1A2…Ak, consistant dans le fait qu'à la suite du test, tous les événements spécifiés se sont produits.

Il découle directement de la définition que AB = BA. Les lois combinatoires et distributives sont également valables. Cependant AA = A(pas A 2).

On dit que l'ensemble des événements forme groupe complet événements pour un test donné, si son résultat devient nécessairement au moins l'un d'entre eux.

Considérons le groupe complet des événements incompatibles par paires A 1 , A 2 , ..., An associés à un test. Supposons que dans ce test l'occurrence de chacun des événements A je, (je= 1, 2, …, k) tout aussi possible, c'est-à-dire que les conditions de test ne créent pas d'avantages dans la survenance d'un événement par rapport à d'autres événements possibles.

Les événements A 1, A 2, ..., An, formant un groupe complet d'événements incompatibles par paires et également possibles, sont appelés événements élémentaires ( ω ) .

Événement UN appelé favorable événement B, si la survenance de l’événement A entraîne la survenance de l’événement B.

Définition classique de la probabilité. Probabilité PENNSYLVANIE)événements UN relation appelée m/ n nombre d'événements élémentaires favorisant l'événement UN, au nombre de tous les événements élémentaires, soit

P(A) =m/ n.

Expérience, ou test, appeler toute mise en œuvre d'un certain ensemble de conditions ou d'actions dans lesquelles un phénomène correspondant se produit. Le résultat possible de l’expérience s’appelle événement. Par exemple, l’expérience consiste à lancer une pièce de monnaie et les événements sont des « armoiries », « le numéro sur sa face supérieure » (lorsque la pièce tombe). Les expériences incluent le tir sur une cible, le retrait d'une balle d'une boîte, etc. Les événements seront désignés par des lettres majuscules de l'alphabet latin A, B, C, ...

L'événement s'appelle fiable dans une expérience donnée, s'il est sûr qu'il se produira dans cette expérience. Par exemple, si la boîte ne contient que des boules bleues, alors l'événement « une boule bleue est tirée de la boîte » est fiable (il n'y a pas de boule de couleur différente dans la boîte).

L'événement s'appelle impossible dans une expérience donnée, si cela ne peut pas se produire dans cette expérience. Ainsi, s'il n'y a que des boules rouges dans la boîte, alors l'événement « une boule bleue est tirée de la boîte » est impossible (il n'y a pas de boules de ce type dans la boîte).

L'événement s'appelle aléatoire dans une expérience donnée, si cela peut ou non se produire dans cette expérience. Par exemple, si la boîte contient n bleu et m les boules rouges sont identiques en taille et en poids, alors l'événement « une boule bleue est tirée de l'urne » est aléatoire (cela peut arriver ou non, puisque l'urne contient non seulement des boules bleues mais aussi des boules rouges). Les événements aléatoires sont les « armoiries » et « le numéro sur la face supérieure d'une pièce lorsqu'on la lance », « les coups et les ratés lors du tir sur une cible », « gagner un billet de loterie », etc.
Remarque : Les exemples donnés indiquent que le même événement dans certaines expériences peut être fiable, dans une autre - impossible, dans une troisième - aléatoire. Parlant de la fiabilité, de l'impossibilité, du caractère aléatoire d'un événement, nous entendons sa fiabilité, son impossibilité, son caractère aléatoire par rapport à une expérience spécifique, c'est-à-dire à la présence d'un certain ensemble de conditions ou d'actions.

Les deux événements sont appelés articulation dans une expérience donnée, si l'apparition de l'un d'eux n'exclut pas l'apparition de l'autre dans cette expérience. Ainsi, lors du lancement de deux pièces symétriques, les événements A - « les armoiries sur la face supérieure de la première pièce » et B - « le numéro sur la face supérieure de la deuxième pièce » sont joints.

Les deux événements sont appelés incompatible, s'ils ne peuvent pas se produire ensemble lors du même essai. Par exemple, un coup sûr et un échec d'un seul coup sont incohérents. Plusieurs événements sont dits incompatibles s’ils sont incompatibles par paire.

Les deux événements sont appelés opposé, si l’apparition de l’un d’eux équivaut à la non-apparition de l’autre. Ainsi, les événements « blason » et « numéro » sont opposés lors d'un tirage au sort symétrique. Si l'un des événements opposés est désigné par la lettre A, alors l'autre est désigné . Par exemple, si A est un « coup sûr », alors c'est un « échec » avec un tir sur la cible.

L'ensemble des événements A 1, A 2, ..., A n est appelé groupe complet d'événements, s'ils sont incompatibles par paires ; l'apparition d'un et d'un seul d'entre eux est un événement certain. Expliquons le concept de groupe complet d'événements à l'aide de l'exemple suivant. Considérons les événements qui apparaissent lors du lancement d'un dé (c'est-à-dire un dé sur les côtés duquel sont écrits les chiffres 1, 2, 3, 4, 5, 6 ou des signes correspondant à ces chiffres sont représentés). Lorsque le cube tombe, la face supérieure sera la face portant l’un de ces chiffres. On note l'événement : « le bord supérieur est la face de numéro k » par A k (k = 1, 2, 3, 4, 5, 6). Les événements A 1, A 2, A 3, A 4, A 5, A 6 forment un groupe complet : ils sont deux à deux incompatibles ; l'apparition d'un et un seul d'entre eux est un événement fiable (lorsque le cube tombe, alors une seule des faces sera en haut, un seul des nombres de 1 à 6 y est inscrit).

Les événements comptent tout aussi possible, s'il n'y a aucune raison de croire qu'un événement est plus possible que d'autres. Par exemple, lors du lancement d'une pièce de monnaie, l'événement A (l'apparition d'un nombre) et l'événement B (l'apparition d'un blason) sont également possibles, puisqu'on suppose que la pièce est constituée d'un matériau homogène, a une forme régulière forme cylindrique, et la présence de frappe n'affecte pas quelle face de la pièce (les armoiries ou le chiffre) ) sera celle du haut. Lors du lancement d'un dé, les événements A 1, A 2, A 3, A 4, A 5, A 6 sont également possibles, puisqu'on suppose que le cube est constitué d'un matériau homogène, a la forme correcte et la présence de chiffres (ou points) sur les faces n'affecte pas laquelle des six faces sera la plus haute. Chaque événement pouvant survenir à la suite d'une expérience est appelé résultat élémentaire(un événement élémentaire, ou un hasard).

Par exemple, les événements A 1, A 2, A 3, A 4, A 5, A 6 sont des résultats élémentaires lors du lancement d'un dé. Les résultats élémentaires dans lesquels un événement donné se produit sont appelés favorables à cet événement, ou chances favorables. Ainsi, lors du lancement d'un dé, les résultats élémentaires A 2 , A 4 , A 6 sont favorables à l'événement « un nombre pair de points est obtenu ».

Exemple 1.

Deux dés sont lancés et les sommes des points perdus (la somme du nombre de points sur les faces supérieures des deux dés) sont calculées. Le total des points obtenus sur les deux dés peut varier de 2 à 12. Notez l'ensemble des événements de cette expérience.

Solution.

Un groupe complet d'événements est formé par des résultats élémentaires également possibles ( k; m), k, m= 1, 2, 3, 4, 5, 6, présentés dans le tableau. Résultat élémentaire ( k; m) signifie que le premier dé lancé k points, en seconde m points ( k, m= 1,2,3,4,5,6). Par exemple, (3 ; 4) : le premier dé a 3 points, le deuxième dé a 4 points.

(1;1) (2;1) (3;1) (4;1) (5;1) (6;1)
(1;2) (2;2) (3;2) (4;2) (5;2) (6;2)
(1;3) (2;3) (3;3) (4;3) (5;3) (6;3)
(1;4) (2;4) (3;4) (4;4) (5;4) (6;4)
(1;5) (2;5) (3;5) (4;5) (5;5) (6;5)
(1;6) (2;6) (3;6) (4;6) (5;6) (6;6)

Exemple 2.

Combien de résultats élémentaires favorisent l’événement « les deux dés ont le même nombre de points » lors du lancement de deux dés ?

Solution.

Cet événement est favorisé par 6 résultats élémentaires (voir tableau de l'exemple 1) : (1;1), (2;2), (3;3), (4;4), (5;5), (6;6 ).

Exemple 3.

Deux dés sont lancés. Quel événement est favorisé par des résultats plus élémentaires : « la somme des points tirés est 7 », « la somme des points tirés est 8 » ?

Solution.

L'événement « la somme des points tirés est de 7 » est favorisé par 6 résultats (voir tableau exemple 1) : (1;6), (2;5), (3;4), (4;3), (5 ;2), (6;1). L'événement « la somme des points tirés est de 8 » est favorisé par 5 résultats : (2;6), (3;5), (4;4), (5;3), (6;2). Par conséquent, le premier événement est favorisé par des résultats plus élémentaires.

Exemple 4.

Trois dés sont lancés et les sommes de points qui leur reviennent sont comptées. De combien de manières pouvez-vous obtenir un total de 5 points, 6 points ?

Solution.

Vous pouvez obtenir un total de 5 points de six manières : (1 ; 1 ; 3), (1 ; 3 ; 1), (3 ; 1 ; 1), (1 ; 2 ; 2), (2 ; 1 ; 2 ), ( 2 ; 2 ; 1). Vous pouvez obtenir un total de 6 points de dix manières : (1 ; 1 ; 4), (1 ; 4 ; 1), (4 ; 1 ; 1), (1 ; 2 ; 3), (1 ; 3 ; 2 ), ( 2 ; 1 ; 3), (2 ; 3 ; 1), (3 ; 1 ; 2), (3 ; 2 ; 1), (2 ; 2 ; 2).
Remarque : L'entrée (3 ; 2 ; 1) signifie que le premier dé a marqué 3 points, le deuxième dé a marqué 2 points et le troisième dé a marqué 1 point.

Tâches

1. Les événements suivants sont-ils incompatibles :

b) expérience - deux tirs sur une cible ; événements : A - « au moins un coup sûr » ; B - "au moins un échec."

2. Les événements suivants sont-ils également possibles :
a) expérimenter - lancer une pièce de monnaie symétrique ; événements : A - « apparition des armoiries », B - « apparition du numéro » ;
b) expérimenter - lancer une pièce de monnaie pliée ; événements : A - « apparition des armoiries », B - « apparition du numéro » ;
c) expérience - tir sur cible ; événements : A - "touché", B - "manqué".

3. Les événements suivants forment-ils un groupe complet d'événements :
a) expérimenter - lancer une pièce de monnaie symétrique ; événements : A - « armoiries », B - « numéro » ;
b) expérimenter - lancer deux pièces symétriques ; événements : A - « deux blasons », B - « deux numéros ».

4. Expérience - lancer deux dés. Combien de résultats élémentaires favorisent l'événement - points obtenus : 2, 3, 4, 5, 6, 7,8,9,10,11,12 ?

5. Expérience - lancer trois dés. Combien y a-t-il d’acquis élémentaires au total ? Combien de résultats élémentaires favorisent l'événement - points obtenus sur trois dés : 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 ? Quelle est la valeur la plus élevée de la somme des points obtenus ?

Réponses

1. a) oui ; b) non. 2 . a) oui ; b) non ; c) en général, non. 3 . a) oui ; b) non. 4 . 1,2,3,4,5,6,5,4, 3, 2, 1. 5 . n = 216 ; 1, 3, 6, 10, 15, 21, 25, 27, 27, 25 ; 18.

Des questions

1. Qu’appelle-t-on une expérience ou un test ?
2. Comment s’appelle un événement ?
3. Quel événement est dit fiable dans cette expérience ?
4. Quel événement est appelé impossible dans cette expérience ?
5. Quel événement est appelé aléatoire dans cette expérience ?
6. Quels événements sont dits communs dans cette expérience ?
7. Quels événements sont dits incompatibles dans cette expérience ?
8. Quels événements sont appelés ci-contre ?
9. Quels événements sont considérés comme également possibles ?
10. Qu'appelle-t-on un groupe complet d'événements ?
11. Qu'appelle-t-on un résultat élémentaire ?
12. Quels résultats élémentaires sont considérés comme favorables à cet événement ?
13. Quel est le groupe complet d’événements lorsqu’une seule pièce est lancée ?
14. Quel est le groupe complet d’événements lors du lancer de deux pièces ?

Beaucoup d’entre vous ont étudié la théorie des probabilités et les statistiques à l’école ou au collège. Vous avez sans doute vu un graphique comme celui présenté à la figure 4-1.

Figure 4–1. Distribution normale (gaussienne) de la taille des femmes

La figure 4-1 illustre la distribution dite normale. Cette figure montre la répartition des femmes par taille. L'axe horizontal indique la hauteur en pouces et l'axe vertical indique deux types de probabilités.

1. Courbe de fréquence de probabilité - La zone ombrée est associée à l'axe vertical gauche et montre la fréquence à laquelle une hauteur particulière se produit. Dans notre exemple, la hauteur moyenne est de 5 pieds 4 pouces. La probabilité que la taille d'une femme soit plus proche de cette moyenne est plus élevée que la probabilité que sa taille soit significativement différente de la moyenne. Plus le point au centre du graphique est élevé, plus la probabilité de correspondance est élevée ; les zones de gauche et de droite affichent les options les moins probables. Par exemple, la hauteur de la courbe au niveau de 70 pouces est beaucoup plus basse qu'au niveau de 68 pouces, ce qui indique qu'une femme est moins susceptible de mesurer 5'10" par rapport à la taille moyenne de 5'8".

2. Courbe de probabilité cumulative - une ligne fine commençant à la marque 0 pour cent et s'étendant jusqu'à la marque 100 pour cent (sur l'axe vertical droit). Cette courbe montre la probabilité totale (cumulative) qu'une femme ait au moins cette taille. Par exemple, si vous regardez cette ligne, vous remarquerez qu’elle est presque proche de 100 % au niveau de 70 pouces. La valeur réelle à 70 pouces est de 99,18 pour cent, ce qui signifie que seulement moins de 1 pour cent des femmes mesurent 5 pieds 10 pouces ou plus.

Ce graphique, comme d'autres similaires, utilise des formules mathématiques complexes, mais son essence est assez simple : plus le paramètre de taille est éloigné du centre indiquant la valeur moyenne, moins vous avez de chances de rencontrer une femme de cette taille.

Pourquoi les calculs de probabilités sont-ils effectués de manière si complexe ? Vous pouvez mettre de côté les formules longues et créer un graphique similaire à celui ci-dessous en utilisant une méthode simple. Allez dans un endroit où vous pouvez rencontrer beaucoup de femmes, comme un dortoir universitaire. Sélectionnez ensuite au hasard 100 femmes et mesurez leur taille. Divisez les mesures de taille en intervalles de 1 pouce et comptez le nombre de femmes dans chaque intervalle. Cela donnera probablement environ 16 femmes mesurant 64 pouces, 15 chacune mesurant 63 et 65 pouces, 12 chacune mesurant 62 et 66 pouces, 8 chacune mesurant 61 et 67 pouces, 4 chacune mesurant 60 et 68 pouces, deux femmes ayant 59 et 69 ans. pouces de hauteur et un chacun mesure 58 et 79 pouces de hauteur. Si vous traciez un graphique du nombre de femmes de chaque taille, il ressemblerait à celui que nous avons représenté dans la figure 4-2.


Figure 4–2. Histogramme de répartition de la taille des femmes

Copyright 2006 Trading Blox, tous droits réservés.

Le type de graphique de la figure 4-2 est appelé histogramme. Il montre visuellement la fréquence d'apparition d'une valeur particulière par rapport à d'autres valeurs (dans ce cas, la taille de la femme) et a la même forme que le graphique de distribution normale de la figure 4-1, mais présente un avantage : vous pouvez le créer sans formules mathématiques complexes. Il suffit de savoir compter et catégoriser.

Ce type d'histogramme peut être créé à partir de vos données commerciales et vous donner une idée de ce que l'avenir vous réserve ; un graphique vous permet de penser en termes de probabilité plutôt que de prédiction. La figure 4-3 est un histogramme des résultats mensuels d'un test sur vingt ans du système de tendance Donchian, une version simplifiée du système Turtle. Il est simple et utilise un ensemble de données étendu, contrairement au système Turtle.

Figure 4-3. Distribution des résultats mensuels

Copyright 2006 Trading Blox, tous droits réservés.

Les parties de l'histogramme de la figure 4-3 sont divisées en segments de 2 pour cent. Une colonne indique le nombre de mois pendant lesquels le résultat était positif et se situait entre 0 et 2 pour cent, la colonne suivante capture la plage entre 2 et 4 pour cent, et ainsi de suite. Notez que la forme de l'histogramme ressemble à la distribution normale des hauteurs dont nous avons parlé plus tôt. La différence significative est que le graphique est incliné vers la droite. Cette pente indique des mois positifs et est parfois appelée distribution asymétrique ou « queue lourde ».

L'histogramme de la figure 4-4 représente la répartition des métiers eux-mêmes. La partie gauche reflète les transactions infructueuses, la droite – les transactions réussies. Notez que chaque graphique comporte deux échelles à gauche et à droite, et que les pourcentages sur l'échelle verticale centrale vont de 0 à 100 pour cent. Les lignes cumulatives se déplacent de 0 à 100 pour cent du centre du graphique vers l'extérieur.

Les chiffres sur les échelles de gauche et de droite indiquent le nombre de transactions dans chaque intervalle de 20 pour cent. Par exemple, 100 % des transactions perdantes équivaut à 3 746 ; cela signifie qu'au cours des 22 années pendant lesquelles l'étude a été menée, 3 746 transactions ont été perdantes. Pour les transactions gagnantes, ce chiffre est de 1 854 transactions (ce qui équivaut à 100 %).

Les transactions sont divisées en colonnes en fonction du profit divisé par le montant du risque sur une transaction donnée. Ce concept, connu sous le nom de R-multiple, a été créé par le trader Chuck Branscombe comme moyen pratique de comparer les transactions effectuées sous différents systèmes et sur différents marchés (les R-multiple ont été popularisés par Van Tharp dans le livre Trading - Your Path to Financial Freedom). .

Figure 4–4 Répartition commerciale de Donchian, R-multiple™

Copyright 2006 Trading Blox, tous droits réservés.

Un exemple illustrera ce système. Si vous achetez le contrat d'or d'août à 450 $ avec un prix stop de 440 $ (au cas où le marché évoluerait contre vous), vous risquez mille dollars (la différence entre 450 et 440 fois 100 onces - le volume d'un contrat). Si une transaction génère un profit de 5 000 $, on l'appelle une transaction 5R, car le profit de 5 000 $ est cinq fois le montant que vous avez risqué (1 000 $). Dans la figure 4-4, les transactions gagnantes sont divisées en groupes avec un intervalle de 1R, les transactions perdantes - avec un intervalle de 0,5R.

Il peut sembler étrange que le nombre de transactions perdantes soit bien plus élevé que le nombre de transactions gagnantes. En fait, c’est un phénomène courant dans les systèmes de suivi de tendances. Cependant, bien que le nombre de transactions perdantes soit important, la plupart des pertes sont approximativement égales à notre niveau prédéterminé de risque d'entrée 1R. Au contraire, le résultat des transactions gagnantes est plusieurs fois supérieur au risque d'entrée, avec 43 transactions rapportant un montant au moins 10 fois supérieur au risque d'entrée.

Les tortues ne savaient jamais quel accord aboutirait et lequel échouerait. Nous avons simplement imaginé la forme approximative de la courbe de distribution des résultats possibles. La distribution doit ressembler à celles présentées dans les figures ci-dessus. Nous pensions que chaque transaction pouvait être rentable, mais nous comprenions qu'elle échouerait très probablement. Nous savions que certaines transactions rapporteraient 4 ou 5R, peu d'entre elles rapporteraient 12R et très peu rapporteraient 20 ou même 30R. Mais les Tortues savaient avec certitude que les gains sur les transactions seraient si élevés qu'elles couvriraient les pertes des transactions infructueuses et réaliseraient même des bénéfices.

Par conséquent, lors de la réalisation de transactions, nous n'avons pas mesuré notre propre condition par le résultat de la transaction, car nous savions que cela ne serait probablement pas rentable. Nous raisonnons en termes de probabilités, ce qui nous donne confiance lorsque nous prenons des décisions face à des niveaux élevés de risque et de doute.



Avez-vous aimé l'article? Partage avec tes amis!