I.V. Danilevsky, Loi Zipf-Pareto, nouvelles technologies quantiques et philosophie de l'inconscient

Loi Zipf-Pareto, nouvelles technologies quantiques et philosophie de l'inconscient

I.V. Danilevski

En utilisant le modèle quantique de la psychologie humaine, l'article fournit une explication du mécanisme de fonctionnement des distributions dites hyperboliques dans l'économie, la politique, la culture et d'autres domaines, parmi lesquels les plus célèbres sont les lois de Zipf, Pareto, Trays, Bradford et Willis. Le modèle quantique de l'inconscient collectif nous permet de donner une nouvelle explication à un certain nombre de questions philosophiques controversées en utilisant des idées sur la non-localité quantique, la cryptographie quantique, etc.

Dans les études de systèmes de différentes classes, les distributions dites hyperboliques, souvent appelées « Zipfiennes », sont bien connues. Il s'agit de distributions (ou lois) de Zipf, Pareto, Lotka, Willis, Bradford, etc. Leur trait commun est une forte asymétrie, contrairement aux distributions « gaussiennes », et un trait surprenant et encore inexpliqué par les experts est l'expression de la même essentiellement mathématique une formule dans laquelle seul l'exposant varie (la formule s'écrit sous deux formes - fréquence et rang, mais ce n'est pas fondamental). Par exemple, la loi de Pareto stipule qu'environ 80 pour cent de la richesse appartient à 20 pour cent de la population, 80 pour cent du travail est effectué par 20 pour cent des travailleurs, 20 pour cent des clients apportent 80 pour cent des bénéfices, etc., et la loi de Zipf la loi établit une utilisation également asymétrique des mots dans les textes finis de gros volume, des phonèmes et des syllabes. La loi d'Auerbach, que Zipf a ressuscitée avec ses recherches, démontre une asymétrie similaire dans la répartition de la population entre les villes. Mais la loi de Lotka est probablement la loi la plus rigoureusement confirmée sous la forme sous laquelle elle a été découverte à un moment donné. Elle concerne la répartition de la productivité scientifique des scientifiques, exprimée en nombre de leurs publications. En 1926, le mathématicien américain Alfred Lotka comptait le nombre de scientifiques qui en écrivirent un, deux, etc. articles cités dans une revue de résumés sur la chimie pendant dix ans, et ont reçu une distribution dans laquelle l'exposant était égal à un. Ses résultats ont reçu un grand écho, incitant d’autres à mener des études similaires, et très vite les choses sont arrivées au point où la validité de la loi de Lotka a pu être testée par le nombre de publications consacrées à la loi de Lotka. Et, de plus, une situation presque anecdotique commençait à se dessiner, puisqu'il s'avérait que des distributions de même nature, c'est-à-dire fortement asymétrique, décrivant, par exemple, les capacités au golf, les résultats aux examens de mathématiques et le nombre de propriétaires fonciers (en fonction de leur revenu annuel) qui ont participé au soulèvement jacobite de 1717. Après toutes ces découvertes, les experts n'ont pu s'empêcher d'admettre qu'une nouvelle classe de distributions avait émergé. On les qualifie de « non gaussiennes », soulignant ainsi la différence avec les distributions symétriques du nom du mathématicien allemand, et la question de leur explication est apparue à l'ordre du jour.

Des explications étaient toujours données. Des tentatives ont été faites par les auteurs de ces découvertes et d'autres spécialistes, mais toutes ont été considérées comme insatisfaisantes à un degré ou à un autre, car Il manquait toujours un chaînon. Le plus souvent, cela se faisait de la manière suivante : la loi de Zipf-Pareto est le résultat de l'action de deux facteurs mutuellement dirigés. Par exemple, si l'on parle du nombre de publications dans des revues scientifiques, alors ces facteurs sont les suivants : l'envie de publier et le débit des revues. Cependant, comme l'a montré A. Lotka, la loi qu'il a découverte décrit le nombre de découvertes en physique pour la période de 1600 à 1900, vérifiées par les travaux de la Royal Society de Londres. Un auteur comme D. Crane souligne que les découvertes et inventions dans d'autres domaines sont soumises à cette loi et que leur promotion n'est pas affectée par le débit des revues. Aujourd'hui déjà, les synergétiques - par exemple G. Malinetsky - interprètent ces schémas comme une « criticité auto-organisée ». Cela signifie que, premièrement, les éléments d'un système qui obéit à la loi de Zipf sont interconnectés les uns avec les autres et que le système lui-même est hautement adapté à des conditions en évolution rapide. Le prix d'une telle auto-organisation est donc la « criticité » - un petit changement dans les conditions provoquent des changements semblables à ceux d'une avalanche - voir à ce sujet. Le fait est que la distribution du nombre de particules - par exemple des grains de sable - dans une avalanche est également soumise à cette loi, et la prise en compte de modèles d'avalanches, de turbulences, etc., comme on le sait, est typique de la synergie . Mais comment une telle explication peut-elle s’appliquer au même fait : la subordination à la loi Zippo-Pareto du progrès des découvertes et des inventions ? Après tout, dans ce cas, il s'avère que les pensées et les idées de personnes très différentes qui ne sont pas liées les unes aux autres dans la vie quotidienne se révèlent être liées, comme dans un système matériel ordinaire ? À propos, la même chose se produit dans la situation considérée par V. Pareto, lorsque 20 pour cent des travailleurs - totalement indépendants de la fameuse « forme de propriété des moyens de production » marxiste - effectuent 80 pour cent du travail en équipe. . D'une manière ou d'une autre, « tout seul », il s'avère que les contributions totales de chacun des travailleurs finissent par s'égaliser, ce qui, bien sûr, fait moins impression que lorsque différents scientifiques et inventeurs, souvent sans même se douter les uns des autres. existence, font, leur semble-t-il, un travail purement individuel, qui s'avère en fait être une formule collective exprimée, mais néanmoins. Alors, est-il vraiment vrai que nos pensées ne sont, dans une certaine mesure, pas seulement nos pensées ? Et si cela est vrai, comment est-ce possible ? Afin de répondre à cette question, il convient d’approfondir les mécanismes à l’origine de nos pensées elles-mêmes et (dans un cas particulier) de nos idées.

Si nous croyons que la conscience est responsable des créations de notre psychisme, nous nous retrouverons alors dans une impasse explicative - les personnes dans les situations décrites ci-dessus n'ont pas interagi consciemment les unes avec les autres. Si, par inertie, nous continuons à affirmer que la conscience est principalement responsable de nos pensées et que l'inconscient n'est qu'une partie auxiliaire de notre « je », alors la situation ne changera pas. Cependant, si nous acceptons que c’est l’inconscient qui est la force dirigeante de notre appareil mental, alors une image complètement différente apparaîtra devant nous.

Les découvertes et les inventions sont avant tout inconscientes : ce sont des avancées intuitives qui ne sont préparées et complétées que par un traitement conscient. La composition d’œuvres littéraires et autres est aussi avant tout un processus inconscient, comme toute créativité. Notre vie quotidienne, y compris la vie économique, y compris le travail, est avant tout informelle, et ce n'est qu'à ce moment-là que les relations formelles, et les relations informelles sont celles qui sont directement influencées par les réactions spontanées, c'est-à-dire en s’appuyant également sur l’inconscient comme fondement. Par conséquent, toute la question est de savoir comment interpréter la structure de notre inconscient. Si nous nous concentrons principalement ou exclusivement sur l’inconscient individuel, cela ne sera pas beaucoup plus clair que lorsque nous prenons en compte uniquement la conscience. Cependant, si nous nous souvenons qu'il existe encore un collectif inconscient, sur lequel Carl-Gustav Jung a beaucoup écrit et fructueusement, nous recevrons la première clé dont nous avons besoin pour résoudre le problème de l'imprégnation des relations sociales avec les distributions Zipfan-Pareto.

Jung, comme vous le savez, a écrit sur l'inconscient collectif principalement dans le contexte des « archétypes », mais avec tout notre plus grand respect pour ce scientifique et penseur, nous devons admettre que cette approche est assez phénoménologique. Le « regretté » Jung a progressivement déplacé ses intérêts des archétypes vers le problème de ce qu'on appelle la « synchronicité » - l'identité sémantique des événements en l'absence de relations de cause à effet entre eux et, fait intéressant, il l'a déjà fait. pendant la période de sa collaboration avec l'un des créateurs de la mécanique quantique, V. .

Posons-nous une ou plusieurs questions : qu'est-ce que cela se passe lorsque le résultat global du comportement de nombreuses personnes s'avère être le même, quelles que soient les personnalités, les cultures et les époques ? À quoi ressemble cette image à la fois dans le cas de la loi de Pareto-Zipf et dans le cas de la base invariante de la « mentalité » (le subconscient collectif, c'est-à-dire en fait capable d'être une partie consciente de l'inconscient collectif) ) de tel ou tel peuple ? Existe-t-il des parallèles à cela dans le monde naturel ?

La réponse à cette question est aussi simple qu’elle l’est, et peut-être inattendue du point de vue des approches conventionnelles : elle est similaire au « paradoxe d’Einstein-Podolsky-Rosen » en mécanique quantique.

En 1935, Einstein et deux de ses collaborateurs publièrent un article dans lequel ils espéraient réfuter l’idée originale de Bohr-Heisenberg-Schrödinger. L'essence de ce paradoxe peut être exprimée comme suit : si deux particules interagissent entre elles, ce qu'on appelle « connecté » (« engagé ») se forme entre elles, c'est-à-dire un état corrélé avec des caractéristiques générales générales - élan, ce qu'on appelle le « spin », etc. Après cela, les particules s'envolent à n'importe quelle distance imaginable, jusqu'à la limite égale à l'Univers lui-même. Si vous mesurez l'état de l'un d'eux - disons, avec un spin total égal à zéro, le spin de l'un sera égal à « moins un » - alors le spin de l'autre prend en même temps la valeur « plus un". Étant donné que les particules dans le microcosme ont la propriété de se désintégrer et de s'interconvertir de diverses manières, limitées uniquement par les lois de conservation, alors dans le processus d'interactions ultérieures, leurs caractéristiques globales devraient toujours rester communes. Cela ne semble rien de paradoxal. Cependant, le problème est que, dans le microcosme, il existe une sorte de « berkleianisme » ; La mécanique quantique démontre de manière frappante (principalement, bien sûr, aux « matérialistes convaincus ») que, dans un certain sens, Mgr Berkeley avait absolument raison. Les valeurs spécifiques de nombreuses caractéristiques des particules ne sont déterminées qu'aux moments d'observation ; avant de les observer, c'est-à-dire Les caractéristiques, contrairement au fondamentalisme dialectique et aux autres « fondamentalismes matérialistes » (le fondamentalisme islamique en philosophie, où Allah est matière), ne sont tout simplement pas « objectivement » présentes. Par conséquent, l'expérimentateur qui capte la deuxième particule n'est pas du tout obligé de découvrir que ses caractéristiques sont corrélées aux caractéristiques préalablement déterminées de la première particule, mais c'est exactement ce qu'il découvre toujours. Einstein pensait qu'une telle interaction à longue distance dans le micromonde était impossible et que la mécanique quantique ne tenait pas compte de quelque chose. Cependant, des expériences menées dans les années 1980 par A. Aspect et d'autres ont montré que les particules réagissaient réellement aux mesures des autres. une vitesse dépassant la vitesse Sveta. Pour beaucoup, de tels résultats étaient inattendus, mais le fait demeure néanmoins : les particules qui interagissent les unes avec les autres au moins une fois se « sentent » (voir à ce sujet).

La comparaison n’est pas une preuve, les lecteurs critiques pourraient s’y opposer. Sur quelle base l’analogie quantique est-elle invoquée, et non une autre analogie ? Et qu'en est-il des arguments qui, au cours des dernières décennies au moins, ont été activement avancés par les opposants au physicalisme - le désir de nombreux auteurs à l'esprit positiviste de réduire la pensée humaine aux processus physiques et chimiques dans le cerveau - seront probablement les mêmes critiques ? dire.

Répondons d'abord à la première question. Il est intéressant de voir comment les paradigmes dominants affectent la conscience des scientifiques ! À notre connaissance, aucun des auteurs traitant des questions philosophiques de la conscience et de la psychologie en général ne conteste les suppositions de Louis de Broglie sur le dualisme particule-onde de la matière, selon lequel les particules locales de matière sont en même temps non locales. flots. Mais pour une raison quelconque, seuls quelques-uns considèrent qu'il est nécessaire d'admettre qu'en général, il devrait en être de même en ce qui concerne le niveau quantique d'organisation des processus de pensée dans le substrat matériel du cerveau ! Des hypothèses interprétant la psyché humaine comme une sorte de formation quantique ou de type quantique existent depuis la fin des années 1950. Ils ont pénétré dans la philosophie au milieu des années 1970 sous la forme d'une réaction à trois circonstances : une série de déclarations de Niels Bohr, les résultats d'expériences avec des drogues hallucinogènes (principalement le LSD) et la publication du livre de Fridtjof Capra « Le Tao de la physique », qui n’a pas besoin d’être présenté. Après Capra, la théorie de D. Bohm sur les soi-disant « paramètres cachés non locaux » qui déterminent le comportement des microparticules et la mécanique des hologrammes, obtenus à cette époque, nécessitait une technologie quantique sous forme de lasers, ainsi que le La « délicieuse singularité » de la théorie quantique elle-même, qui était disponible à cette époque, a reçu le statut de base idéologique d'un certain nombre de théories scientifiques peu orthodoxes (S. Grof), mais principalement parascientifiques. À ce jour, la science académique se limite à l'utilisation d'idées sur la psyché en tant que système quantique, principalement sous la forme de tentatives inspirées par le lauréat du prix Nobel Eccles pour relier la pensée humaine non seulement aux processus biochimiques des neurones, mais également aux processus quantiques des synapses. , continuant à travailler dans le cadre du « paradigme biochimique » précédent, même une connaissance superficielle des résultats de la domination (par exemple, voir) suffit à comprendre sa futilité. La preuve philosophique de l'incohérence de ce paradigme est donnée dans presque tous les livres du remarquable auteur de Saratov E.M. Ivanov - voir, par exemple, Malgré l'existence d'hypothèses justifiant que des processus quantiques macroscopiques de superfluidité-supraconductivité se produisent dans le cerveau humain (voir à ce sujet), qu'une cellule nerveuse est un bioordinateur quantique, et d'autres (par exemple, actuellement le La plus grande hypothèse bien connue de Stuart Hameroff et Roger Penrose est que les microtubes de tubuline des neurones permettent l'existence de processus quantiques à grande échelle dans le cerveau - voir. ), jusqu'à ce qu'il y ait des confirmations expérimentales de ces points de vue qui peuvent en convaincre les sceptiques, et les sceptiques eux-mêmes ne sont naturellement pas pressés de changer le paradigme une fois choisi. Nous pensons qu'une preuve indirecte supplémentaire de l'organisation quantique d'au moins une partie importante des processus mentaux peut être fournie par des faits de nature sociale - à la fois ceux enregistrés par la loi de Zipf-Pareto et bien d'autres (par exemple, les analogies entre les mythes , pratiques magiques et effets quantiques non locaux) : Voir ceci pour plus de détails.

Rappelons brièvement ce qu'est un ordinateur quantique. Il s'agit d'un type d'ordinateur fondamentalement nouveau, qui n'a pas encore été créé, mais dont la base théorique est disponible depuis longtemps (voir). Son idée principale est la suivante : puisqu'un objet quantique (par exemple, un atome), contrairement à tout objet qui nous est familier, est capable d'être simultanément dans de nombreux états mutuellement exclusifs (oui-non, 0-1, etc.), tous ces états peuvent « attribuer » un certain travail de calcul et ainsi effectuer un processus de calcul parallèle, obtenant un gain gigantesque en vitesse pour un certain nombre de tâches - décomposant de grands nombres en certains facteurs (utilisés dans le cryptage), recherchant les informations requises dans une énorme base de données , etc. Par exemple, si un ordinateur moderne typique doit rechercher les facteurs nécessaires d'un nombre à mille chiffres dix à la puissance vingt-cinquième des années, alors un ordinateur quantique résoudra le même problème en quelques heures (comme ils dites « sentez la différence » - ndlr).

Voyons ce qui se passe lorsque la loi de Zipf est satisfaite pour les textes, c'est-à-dire lorsque le nombre de mots utilisés pour l'écrire (ou de caractères chinois - cette option a également été testée par Zipf) s'avère être distribué selon un certain modèle hyperbolique. Évidemment, un tel travail n’est jamais effectué consciemment et, par conséquent, n’est effectué qu’inconsciemment. Mais dans ce cas, il s'avère que l'inconscient agit comme un ordinateur qui, d'une part, traduit tous les symboles de n'importe quelle langue - anglais, russe ou chinois - sous forme numérique et, d'autre part, contrôle la corrélation de l'utilisation des mots avec le intention idéologique du texte dès le début jusqu'à la fin de sa rédaction par l'un ou l'autre auteur (dans les études consacrées à la loi de Zipf, la nécessité de l'intégrité du texte pour lequel cette loi s'applique est particulièrement soulignée : cela ne fonctionne pas pour les passages arbitraires). En revanche, pour coordonner les activités économiques ou purement intellectuelles d'un très grand nombre de personnes, il faut à la fois un mécanisme permettant d'accéder aux pensées (idées) de ces mêmes personnes « en temps réel » et leur calcul et traitement quasi instantanés. . Depuis le nombre d'atomes dans l'Univers ne dépasse pas dix à la puissance quatre-vingt, et un ordinateur quantique résoudra le problème d'essayer dix à la puissance cinq centième de différentes options en quelques minutes(!) (voir), la question est « Si au moins une partie de notre inconscient agit comme un ordinateur quantique, recevant les informations nécessaires au traitement en utilisant l'effet enregistré par le paradoxe d'Einstein-Podolsky-Rosen (la soi-disant non-localité quantique) , alors un tel ordinateur (plus précisément des ordinateurs : selon l’hypothèse d’E. Liberman, chaque neurone est un tel ordinateur) peut-il calculer et « faire la moyenne » des activités de plusieurs milliards de personnes en utilisant la formule Zipfon-Pareto ? - devient rhétorique. Cela lui prendra en moyenne les mêmes minutes voire secondes.

Quant aux accusations de « physicalisme » des théories quantiques de la conscience, aussi étranges que cela puisse paraître, elles sont certes justifiées, mais cela n’a absolument rien à voir avec notre hypothèse. Dans la conscience, comme le soulignent les opposants au physicalisme, on distingue le contenu des valeurs, la capacité de représenter le sujet sous forme d'expérience, etc., mais les systèmes physiques n'ont rien de similaire. C'est tout à fait juste, mais, d'une part, le cerveau est toujours un système biologique, et pas seulement physique (voir l'article de N. Cartwright dans), et, d'autre part (le plus important !), cela signifie seulement que exactement la conscience en tant que telle demeure " Terra incognita » pour la science moderne - en particulier la science physique - car il lui manque apparemment un lien très important et que pour l'inconscient, ces caractéristiques sont une idée de valeur, une forme d'expérience subjective, etc. - ne s'appliquent pas en elles-mêmes. (bien que la loi de Zipf démontre que l'inconscient, ayant reçu un signal de la conscience, est capable de traduire toutes sortes de « significations », « d'intentionnalité » et d'autres caractéristiques traditionnelles de la conscience en philosophie dans une certaine forme mathématique, puis de la traiter comme un quantum ordinateur ).

Par conséquent, l’inconscient peut être modélisé à l’aide d’une théorie physique « impersonnelle », dont la frontière est la mécanique quantique, et, en outre, dans la mécanique quantique, il existe un « principe d’indiscernabilité » des particules, ce qui signifie que, par exemple, un électron est pas différent de tous les autres électrons, et un photon est différent des autres photons, et il semble parfaitement adapté à la modélisation ci-dessus de l'inconscient collectif commun à toute l'humanité.

Que signifie tout ce qui précède pour la philosophie ? Cela signifie notamment ce qui suit :

1) Il devient possible de parler de structuralisme non pas dans le sens que K. Lévi-Strauss a donné à ce terme (c'est-à-dire dans un sens purement sémiotique), mais dans une sorte de sens « physico-mathématique ». D'un autre côté, Lévi-Strauss a souligné à juste titre ce que devrait être le structuralisme en tant que philosophie scientifiquement fondée : un système de vues visant à trouver des modèles universels opérant dans toutes les sphères de la vie humaine. Il est proche de Jung en cela, bien qu'il ne soit pas d'accord avec lui (injustement, comme cela est clair maintenant) dans l'évaluation de l'existence de soi-disant archétypes, communs à tous à tout moment. Et nous voyons qu’eux, ces modèles (en particulier ceux de Zippo-Pareto) existent. Par conséquent, toutes les déclarations des poststructuralistes-postmodernistes à ce sujet sont incorrectes. Par exemple : « Il n’existe pas de forme universelle de l’inconscient, comme le insiste la psychanalyse » (Baudrillard, ) ; «Pourquoi il n'est pas question de suivre Jung» (Derrida,).

2) L'inconscient humain et, en particulier, l'inconscient collectif est principalement structuré comme une sorte de bioordinateur quantique (voir l'hypothèse d'E. Liberman sur les neurones. De plus, la nature quantique (plus précisément quantique) de sa structure ne peut que s'effectuer). en entraîner une chaîne d'autres, non moins fantastiques que de réduire la vitesse de calcul d'un certain nombre de problèmes de dix à la puissance vingt-cinquième d'années à plusieurs heures, conséquences. Par exemple, les structures de l'inconscient, y compris le collectif, doivent avoir la propriété de réversibilité dans le temps, puisque, d'une part, dans le monde des particules élémentaires, il n'existe pas de lois fondamentales interdisant la réversibilité du temps, et, d'autre part, cette réversibilité, doit être la force de l'absence (par définition !) d'observation de la conscience par l'inconscient, à cause de laquelle la soi-disant réduction de la fonction d'onde ne se produit pas (bien sûr, si l'on suppose que cette réduction existe du tout. Par exemple, D. Deutsch, M.B. Mensky et bien d'autres auteurs éminents pensent différemment). Absence de réduction de la fonction d’onde dans l’inconscient devrait expliquer que sous hypnose médicale, une personne peut être amenée plusieurs fois dans le même état initial, et sous hypnose d'État (dans les États totalitaires du XXe siècle et les États médiacratiques du XXe siècle je siècle), vous pouvez faire croire aux masses de la population en presque tout, ou vous empêcher de penser à presque tout ce qui n’est pas dans l’intérêt des élites dirigeantes.

3) Dans la continuité de ce qui précède, il s'ensuit que l'interprétation des « a priori » de Kant en tant que structures de l'inconscient (par exemple, S. Abramov les appelle « formes compositionnelles de l'inconscient ») est très probablement incorrecte. Les « a priori » de Kant concernent les structures de la conscience, et non l'inconscient. Dans le monde quantique, par exemple, contrairement à la croyance de la conscience, l’effet peut précéder la cause.

4) Si nous utilisons l'interprétation des mondes multiples de la mécanique quantique comme paradigme initial pour modéliser les processus inconscients collectifs, ce qui, comme il ressort de la correspondance de l'auteur de ces lignes avec M.B. Mensky, ne peut être réfuté par des moyens purement logiques, comme le souligne à juste titre M.B. Selon Mensky, la fonction de la conscience est en effet un choix entre de nombreux mondes everettiens (Mensky lui-même a formulé cette idée de manière encore plus stricte : la conscience et la séparation de « mondes » classiques alternatifs sont une seule et même chose). Mais cette fonction, comme toute autre, est assurée par la conscience en unité avec la sphère inconsciente, et le rôle prépondérant, si l'on se fie aux conclusions de K.-G. Jung et d’autres créateurs de la psychanalyse appartiennent encore à l’inconscient. La conscience se trouve en réalité dans l’un des nombreux mondes possibles et, comme on le sait, elle est holistique ; même dans le cas de la schizophrénie, parfois une « personnalité » apparaît, parfois l’autre, mais pas les deux en même temps. Cependant, l'inconscient, en tant qu'objet de type quantique, est capable d'être dans une conscience divisée de ce qu'on appelle la superposition, il serait donc logique de supposer que pour lui toutes les alternatives possibles sont préservées dans le temps.

5) Le fait que la loi de Zipf-Pareto dans sa version originale de Pareto est également valable pour la répartition des richesses entre différents peuples à différentes époques et pour la densité gravitationnelle des systèmes stellaires (dans la formule dérivée de Pareto, l'exposant est le même), en parle, en plus de la non-localité quantique et quantique derrière tout cela, respectivement, cette circonstance peut être expliquée de deux manières. Première option : l’existence même de distributions hyperboliques est une conséquence de la distribution hyperbolique de la densité gravitationnelle dans l’Univers. Cette explication séduirait probablement Roger Penrose, qui recherche l'effet de la gravité sur la réduction objective de la conscience. Cependant, d’une part, une telle explication relèverait d’un réductionnisme physique, dont l’incohérence philosophique est prouvée depuis longtemps, et, d’autre part, un certain nombre d’objections peuvent lui être opposées. Par exemple : pourquoi la gravité « plie-t-elle sous elle-même » l'activité intellectuelle des personnes ou la répartition du nombre d'espèces biologiques par genres, mais ne fait-elle pas de même dans les cas où la subordination des résultats de toute activité humaine ou processus biologiques à le soi-disant « nombre d'or » est-il enregistré ? Il serait plus correct de reconnaître la validité de la métaphysique pythagoricienne-platonicienne - la validité du fait que notre monde, comme les cerceaux, est couvert par une sorte de structures mathématiques qui, bien qu'elles s'y manifestent, n'appartiennent pas en elles-mêmes à notre monde. À propos : il est surprenant que Penrose se qualifie de partisan convaincu de Platon, mais tente de combiner dans ses recherches deux concepts peu compatibles : l'ontologie platonicienne et le réductionnisme physique moderne (bien que mis à jour à la manière de son propre auteur).

Nous examinons en détail ces questions et d’autres liées à tout ce qui précède dans la monographie. K.-G. Jung n'a pas eu assez de temps pour franchir le pas décisif vers l'explication de sa propre interprétation de l'inconscient collectif (archétype et surtout synchronistique) en tant que système quantique ou de type quantique, même si, en collaboration avec Pauli, il avait déjà commencé à avancer dans cette voie . Mais après que le paradoxe d'Einstein-Podolsky-Rosen ait été confirmé dans les années 80 du siècle dernier et que la possibilité de créer des ordinateurs quantiques ait été justifiée, et dans les années 90, la soi-disant téléportation quantique a été découverte (transfert instantané de l'état d'une particule de les uns aux autres à travers l’interaction avec eux). Troisièmement, en raison de la même non-localité quantique fixée dans le paradoxe EPR), le moment est venu de « dynamiser » la théorie de l’inconscient collectif. Passer de la statique phénoménologique à la dynamique physique et mathématique. Et presque la seule chose qui peut empêcher cela, assez curieusement, réside dans la même essence quantique ou quasi-quantique de l'inconscient - peu importe, individuel ou collectif (bien que, à proprement parler, un inconscient complètement « individuel », dû à la non-localité quantique de ces derniers, ne devrait pas exister ; il est tout simplement extrêmement difficile de retracer la synchronisation des rêves ou des complexes personnels entre différentes personnes qui ne sont pas connectées les unes aux autres dans la vie quotidienne).

Nous faisons référence à l’effet de ce qu’on appelle la « cryptographie quantique », dont des échantillons commerciaux ont déjà été mis en vente. La nouvelle cryptographie est basée sur une circonstance caractéristique de la mécanique quantique : toute mesure, c'est-à-dire en fait toute observation d'un système quantique, des états des microparticules dans lesquelles l'information est codée, y provoque des changements irréversibles. Par conséquent, toute tentative de connexion à un câble transportant des informations ainsi codées sera, d’une part, immédiatement détectée et, d’autre part, il ne sera toujours pas possible d’utiliser le « mélange » modifié d’états de particules qui en résultera. N’est-ce pas cet « effet cryptographique quantique » qui nous cache les secrets de notre propre monde intérieur, à propos du « déchiffrement imminent des codes » sur lequel tant de choses ont été écrites dans les années soixante-dix du siècle dernier ? (Par exemple, dans notre pays, cela a été fait au nom de la neurophysiologie par N. Bekhterev et au nom de la philosophie par D. Dubrovsky.) S'il en est ainsi, alors les affaires de la science sont compliquées de la manière la plus radicale. Rappelons l'idée de Freud, qui a été critiquée à plusieurs reprises : à l'aide d'un « transfert » artificiellement induit - le transfert d'émotions, etc. par le médecin - pour sauver les souvenirs du patient et les déterminer lui-même. Comme dans la téléportation quantique moderne (voir) : les particules 1 et 2 ont interagi entre elles ; un état « lié » s'est formé entre eux, et maintenant, si nous connectons à la particule 1 une troisième particule, qui est dans un état inconnu, alors elle, cet état inconnu, sera transférée à la particule 2 et pourra être déterminée par les expérimentateurs. La psychanalyse en général et Freud en particulier ont toujours été accusés d'être non scientifiques ; est que le psychanalyste implante souvent, et peut-être en général toujours, les souvenirs qu'il attend dans la tête de ses patients, et c'est dans la plupart des cas la pure vérité. Mais le fait est qu’il est très difficile de respecter les conditions expérimentales afin de ne pas réaliser soi-même un analogue d’un acte de téléportation quantique dans le passé du patient. Élevé à partir de la vision cartésienne-newtonienne du monde, Freud ne pouvait pas savoir que dans le monde quantique, une observation ultérieure est capable de déterminer les résultats d'une observation antérieure. De nos jours, il s’avère que s’ajoutent à cela de nouvelles difficultés de type « crypto-quantique ». En fait : supposons que l'un des partisans de l'idée de la possibilité de déchiffrer les codes cérébraux étape par étape (par exemple, le même D.I. Dubrovsky) ait réussi à déchiffrer les codes requis (disons, de son propre chef cerveau). Dubrovsky pourra alors, par exemple, en exécutant le programme qu'il a trouvé sur l'ordinateur, découvrir que lui-même, D. I. Dubrovsky, doit le penser ou le faire dans un avenir proche. Cependant, une fois qu’il aura découvert cela, ne pourra-t-il vraiment plus penser ou faire autre chose dans ce cas (comme on dit, « par dépit ») ? Bien sûr qu’il le peut. Mais cela signifierait que les codes de son propre cerveau qu’il a trouvés étaient incorrects. Ainsi, D.I. Dubrovsky arrive à une contradiction insoluble. Autrement dit, les codes cérébraux ne peuvent en principe pas être déchiffrés ! (Cela découle d'ailleurs également des théorèmes de Gödel et Tarski : puisqu'il existe des énoncés indécidables dans le cadre de tout système axiomatique suffisamment complexe, la conscience ne peut être connue que par un système d'un niveau supérieur, c'est-à-dire la superconscience ; cela entraînera nécessitent également un langage d'un niveau supérieur.) Mais il faut alors se poser la question suivante : la matière connue aujourd'hui de la science physique permet-elle réellement l'existence de tels messages d'information « cryptés », en se « connectant » auxquels nous allons Jamais et en aucune circonstance (à moins, bien sûr, en raison de l'influence de certains facteurs, nous ne deviendrons soudainement pas des surhumains) nous ne pourrons reconnaître leur organisation codée ? Oui, il le fait. C'est la cryptographie quantique.

C’est pourquoi je voudrais dire ceci : contrairement à ce que prétendent les postmodernistes, une personne – du moins dans son essence profonde – n’est pas quelque chose qui peut être « lu comme un texte ». Même si un Homme est un texte, alors c'est un texte qui ne peut pas être déchiffré de la manière textuelle habituelle.

Littérature

  1. Abramov S.S. Subjectivité implicite (Expérience de recherche philosophique). –Tomsk : Maison d'édition de l'Université de Tomsk, 1991. –208 p.
  2. Bannikov V.S., Vedensky O.Yu., Ermak G.P., Kolesnik O.L., Shesto-palov V.P. Effet Josephson dans les structures biomoléculaires. // Rapports de l'Académie des sciences de la RSS d'Ukraine. Ser. R. –1990. –N° 9. –P.46-50.
  3. Belokurov V.V., Timofeevskaya O.D., Khrustalev O.A. La téléportation quantique est un miracle ordinaire. – Ijevsk : Centre de recherche « Dynamiques régulières et chaotiques », 2000. –256 p.
  4. Baudrillard J. Transparence du mal. –M. : Dobrosvet, 2000. –263 p.
  5. Borisyuk G.N., Borisyuk R.M., Kazanovich Ya.B., Ivanitsky G.R. Modèles de la dynamique de l'activité neuronale lors du traitement de l'information par le cerveau - les résultats de la « décennie ». //UFN. –2002. -T. 172 .
  6. Valiev K.A., Kokin A.A. Des résultats du XXe siècle : des quanta aux ordinateurs quantiques. (http://aakokin. chat. ru /).
  7. Danilevsky I.V. Structures de l'inconscient collectif : réalité sociale de type quantique. Éd. 2ème. – M : URSS, 2005. –376 p.
  8. Derrida J. Écriture et différence. – Saint-Pétersbourg : Projet académique, 2000. –432 p.
  9. Deutsch D. La structure de la réalité. Par. de l'anglais – Ijevsk : Centre de recherche « Dynamiques régulières et chaotiques », 2001. –400 p.
  10. Ivanov E.M.
  11. Physique et subjectif : recherche d'analogie. Saratov : Maison d'édition de l'Université de Saratov, 1997. – 56 p.
  12. Mensky M.B.
  13. Le concept de conscience dans le contexte de la mécanique quantique. // UFN. – 2005. –T.175. –N° 4. – pages 413 à 435.
  14. Mitina S.V., Liberman E.A. Canaux d'entrée et de sortie d'un bioordinateur quantique. // Biophysique. –1990. –T.5. – Numéro 1. – P.132-135.
  15. Penrose R., Shimoni A., Cartwright N., Hawking S. Grand, petit et l'esprit humain. Par. de l'anglais – M. : Mir, 2004. – 191 p. Petrov V.M., Yablonsky A.I. Mathématiques et processus sociaux – M. : Znanie, 1980. – 64 p. Sosnin E.A., Poizner B.N. Modèle laser de créativité (de la théorie de la domination aux synergies de culture). –Tomsk : Maison d'édition TSU, 1997. –150 p. ().
  16. http
  17. ://spkurdyumov. personnes ru/ CULTURE. htm
  18. Etudes philosophiques des fondements de la mécanique quantique. À l'occasion du 25e anniversaire des inégalités de Bell.–M. : Société philosophique de l'URSS, 1990. –183 p. Yablonsky A.I.
Modèles et méthodes de recherche scientifique. – M. : Éditorial URSS, 2001. –400 p. Frohlich H. Cohérence à longue portée et stockage d'énergie dans les systèmes biologiques. //Inf. De Chimie quantique Frohlich H. Cohérence à longue portée et stockage d'énergie dans les systèmes biologiques. //Inf. De. –1968. –N°2. – R. 56-58. mots d'une langue naturelle : si tous les mots d'une langue (ou juste un texte suffisamment long) sont classés par ordre décroissant de fréquence de leur utilisation, alors la fréquence n

du ème mot dans une telle liste sera approximativement inversement proportionnel à son numéro de série[ | ]

(soi-disant rang), qui le décrit en 1908 dans son ouvrage « The Range of Shorthand ». La loi a été utilisée pour la première fois pour décrire la répartition de la taille des villes par le physicien allemand Felix Auerbach dans son ouvrage « La loi de la concentration de la population » en 1913 et doit son nom au linguiste américain George Zipf, qui en 1949 a activement popularisé ce modèle, en proposant pour la première fois de l'utiliser pour décrire la répartition des forces économiques et le statut social.

Une explication de la loi de Zipf basée sur les propriétés de corrélation des chaînes de Markov additives (avec une fonction de mémoire pas à pas) a été donnée en 2005.

La loi de Zipf est décrite mathématiquement par la distribution de Pareto. C'est l'une des lois fondamentales utilisées en infométrie.

Applications de la loi[ | ]

George Zipf fut le premier, en 1949, à montrer la répartition des revenus des individus selon leur taille : la personne la plus riche a deux fois plus d'argent que la personne suivante, et ainsi de suite. Cette affirmation s'est avérée vraie pour un certain nombre de pays (Angleterre, France, Danemark, Hollande, Finlande, Allemagne, États-Unis) entre 1926 et 1936.

Cette loi s’applique également à la répartition du système urbain : la ville la plus peuplée de n’importe quel pays est deux fois plus grande que la ville suivante, et ainsi de suite. Si vous classez toutes les villes d'un certain pays dans une liste par ordre décroissant de population, alors chaque ville peut se voir attribuer un certain rang, c'est-à-dire le numéro qu'elle reçoit dans cette liste. Dans ce cas, la taille et le rang de la population obéissent à un modèle simple exprimé par la formule :

P n = P 1 / n (\displaystyle P_(n)=P_(1)/n),

P n (\style d'affichage P_(n))- population de la ville Frohlich H. Cohérence à longue portée et stockage d'énergie dans les systèmes biologiques. //Inf. De-ème rang ; P 1 (\style d'affichage P_(1))- population de la principale ville du pays (1er rang).

Des recherches empiriques confirment cette affirmation.

En 1999, l'économiste Xavier Gabet a décrit la loi de Zipf comme un exemple de loi de puissance : si les villes se développent de manière aléatoire avec le même écart type, alors à la limite la distribution convergera vers la loi de Zipf.

Selon les conclusions de chercheurs sur l'urbanisation dans la Fédération de Russie, conformément à la loi Zipf :

  • la plupart des villes russes se situent au-dessus de la courbe Zipf idéale, de sorte que la tendance attendue est une réduction continue du nombre et de la population des villes moyennes et petites en raison de la migration vers les grandes villes ;
  • ainsi, plus de 7 millions de villes (Saint-Pétersbourg, Novossibirsk, Ekaterinbourg, Nijni Novgorod, Kazan, Chelyabinsk, Omsk), situées en dessous de la courbe Zipf idéale, disposent d'une réserve importante pour la croissance démographique et s'attendent à une croissance démographique ;
  • il existe des risques de dépeuplement de la première ville du classement (Moscou), puisque la deuxième ville (Saint-Pétersbourg) et les grandes villes suivantes sont loin derrière la courbe Zipf idéale en raison d'une diminution de la demande de main-d'œuvre avec une augmentation simultanée de la le coût de la vie, comprenant en premier lieu le coût d’achat et de location d’un logement.

Critique [ | ]

Spécialiste américain en bioinformatique a proposé une explication statistique de la loi de Zipf, prouvant qu'une séquence aléatoire de symboles obéit également à cette loi. L'auteur conclut que la loi de Zipf apparaît comme un phénomène purement statistique qui n'a rien à voir avec la sémantique du texte et a un rapport superficiel avec la linguistique.

Pourquoi la loi de Zipf ne fonctionne-t-elle pas en Russie ? 11 mars 2017

La « loi de Zipf » a été utilisée pour la première fois pour décrire la répartition de la taille des villes par le physicien allemand Felix Auerbach dans son ouvrage « La loi de la concentration de la population » en 1913. Il porte le nom du linguiste américain George Zipf, qui a activement popularisé ce modèle en 1949, proposant pour la première fois son utilisation pour décrire la répartition des forces économiques et le statut social.

Cette loi ne fonctionne pas en Russie.


Revenons à 1949. Le linguiste George Zipf (Zipf) a remarqué une tendance étrange dans l'utilisation de certains mots dans le langage. Il a constaté qu’un petit nombre de mots étaient utilisés constamment et que la grande majorité était utilisée très rarement. Si vous évaluez les mots par popularité, une chose étonnante se révèle : un mot de la première catégorie est toujours utilisé deux fois plus souvent qu'un mot de la deuxième catégorie et trois fois plus souvent qu'un mot de la troisième catégorie.

Zipf a découvert que la même règle s'applique à la répartition des revenus des individus dans un pays : la personne la plus riche a deux fois plus d'argent que la personne suivante, et ainsi de suite.

Il est apparu plus tard que cette loi s’appliquait également à la taille des villes. La ville la plus peuplée de n'importe quel pays est deux fois plus grande que la ville suivante, et ainsi de suite. Incroyablement, la loi Zipf a été en vigueur dans absolument tous les pays du monde au cours du siècle dernier.

Jetez un œil à la liste des plus grandes villes des États-Unis. Ainsi, selon le recensement de 2010, la population de la plus grande ville des États-Unis, New York, est de 8 175 133 personnes. Le numéro deux est Los Angeles, avec une population de 3 792 621 habitants. Les trois villes suivantes, Chicago, Houston et Philadelphie, comptent respectivement 2 695 598, 2 100 263 et 1 526 006 habitants. Ces chiffres sont évidemment imprécis, mais ils sont néanmoins remarquablement cohérents avec la loi de Zipf.

Paul Krugman, écrivant sur l'application de la loi de Zipf aux villes, a fait valoir un excellent argument : la théorie économique est souvent accusée de créer des modèles grossièrement simplifiés d'une réalité complexe et désordonnée. La loi de Zipf montre que le contraire est vrai : nous utilisons des modèles trop complexes et désordonnés, mais la réalité est étonnamment claire et simple.

Loi de la force

En 1999, l'économiste Xavier Gabet a écrit un ouvrage scientifique dans lequel il qualifiait la loi de Zipf de « loi de la force ».

Gabe a noté que cette loi persiste même si les villes se développent de manière chaotique. Mais cette structure fluide s’effondre dès que l’on s’installe dans des villes non métropolitaines. Les petites villes comptant une population d'environ cent mille habitants semblent suivre une loi différente et présentent une répartition par taille plus explicable.

On peut se demander ce qu’on entend par le terme « ville » ? Après tout, par exemple, Boston et Cambridge sont considérées comme deux villes différentes, tout comme San Francisco et Oakland, séparées par l'eau. Deux géographes suédois se sont également posé cette question et ont commencé à considérer des villes dites « naturelles », unies par la population et les liaisons routières, et non par des motivations politiques. Et ils ont découvert que même ces villes « naturelles » obéissent à la loi de Zipf.


Pourquoi la loi de Zipf fonctionne-t-elle dans les villes ?

Alors, pourquoi les villes sont-elles si prévisibles en termes de taille de population ? Personne ne peut expliquer cela avec certitude. Nous savons que les villes se développent en raison de l'immigration, les immigrants affluent vers les grandes zones métropolitaines parce qu'il y a plus d'opportunités là-bas. Mais l'immigration ne suffit pas à expliquer cette loi.

Il existe également des motivations économiques, car les grandes villes gagnent beaucoup d’argent et la loi de Zipf fonctionne également en faveur de la répartition des revenus. Toutefois, cela ne fournit toujours pas de réponse claire à la question.

L'année dernière, un groupe de chercheurs a découvert que la loi de Zipf comportait encore des exceptions : la loi ne fonctionne que si les villes en question sont économiquement connectées. Cela explique pourquoi la loi s'applique, par exemple, à un pays européen individuel, mais pas à l'ensemble de l'UE.

Comment les villes se développent-elles ?

Il existe une autre règle étrange qui s’applique aux villes : elle concerne la façon dont les villes consomment les ressources à mesure qu’elles se développent. À mesure que les villes se développent, elles deviennent plus stables. Par exemple, si une ville double de taille, le nombre de stations-service dont elle a besoin ne double pas.

La ville sera assez confortable à vivre si le nombre de stations-service augmente d'environ 77 %. Même si la loi de Zipf suit certaines lois sociales, cette loi est plus étroitement liée aux lois naturelles, comme la façon dont les animaux consomment de l'énergie en vieillissant.

Le mathématicien Stephen Strogatz le décrit ainsi :

De combien de calories une souris a-t-elle besoin par jour par rapport à un éléphant ? Ce sont tous deux des mammifères, on pourrait donc supposer qu’au niveau cellulaire, ils ne devraient pas être très différents. En effet, si vous cultivez des cellules de dix mammifères différents en laboratoire, toutes ces cellules auront le même taux métabolique ; elles ne se souviennent pas au niveau génétique de la taille réelle de leur propriétaire ;

Mais si vous prenez un éléphant ou une souris comme un animal à part entière, une accumulation fonctionnelle de milliards de cellules, alors les cellules de l'éléphant dépenseront beaucoup moins d'énergie pour la même action que les cellules de la souris. La loi du métabolisme, appelée loi de Kleiber, stipule que les besoins métaboliques d'un mammifère augmentent proportionnellement à son poids corporel d'un facteur de 0,74.

Ce 0,74 est très proche du 0,77 observé pour la loi régissant le nombre de stations-service dans une ville. Coïncidence? Peut-être, mais probablement pas.

En Russie, la population de la plus grande ville, Moscou, s'élève officiellement à environ 11,5 millions d'habitants. La population de la deuxième ville, Saint-Pétersbourg, est de 5,2 millions d’habitants. Comme nous pouvons le constater, le rapport entre la population des deux villes correspond approximativement à la loi de Zipf. Selon lui, la troisième plus grande ville de Russie devrait compter environ 4 millions d'habitants et la quatrième, environ 3 millions. Cependant, de telles villes n'existent pas en Russie. En réalité, la troisième ville de Russie, Novossibirsk, compte 1,6 million d'habitants (2,5 fois moins que la norme) et la quatrième, Ekaterinbourg, 1,4 million, ce qui est également 2 fois moins que la norme Zipf.

Pourquoi la loi de Zipf ne fonctionne-t-elle pas en Russie ? Le sociologue américain Richard Florida répond à cette question dans son livre The Creative Class. Il écrit que la « loi de Zipf » ne fonctionne pas dans les empires (ou dans les pays où les empires rechutent) et dans les économies planifiées. Il cite trois pays d’exception : l’Angleterre (où, après Londres, il n’existe même pas une deuxième ville avec la moitié de la population), la Russie et la Chine.

Des recherches sur la « loi Zipf » ont également été menées par l’Université financière du gouvernement russe. Sa conclusion était la suivante :

« La répartition réelle des villes russes par population ne correspond pas entièrement à la courbe de Zipf, ni pour les pays développés, ni pour les pays en développement. Une partie de la courbe Zipf réelle pour la Russie se situe au-dessus de la courbe idéale, qui correspond à la répartition des villes dans les pays développés, et la partie en dessous correspond à la répartition des villes dans les pays en développement. Ainsi, selon la règle de Zipf, il s’avère qu’en Russie, les plus grandes villes et les villes de plus d’un million jouent un rôle dominant. L’écart de la courbe réelle par rapport à l’idéal est dû à l’étendue du territoire du pays et à divers facteurs socio-économiques et naturels-climatiques.»

Deux mégapoles et des villes petites et moyennes (jusqu'à 250 000 habitants) s'intègrent bien dans le type d'urbanisation occidentale. Mais les grandes villes et les villes de plus d'un million d'habitants - non.

Conclusion d'une autre étude :

« Les tendances identifiées ne correspondent pas aux hypothèses avancées dans la littérature selon lesquelles la raison de l'écart de la Russie par rapport à la loi Zipf est la planification centralisée du développement spatial, qui comprenait le soutien aux villes moyennes et petites pendant la période soviétique. La transition vers le marché était censée éliminer ces distorsions et rapprocher le rapport rang-taille de la forme canonique. Cependant, malgré le lien entre les mécanismes de marché et la formation de l'espace d'activité économique, de nouveaux écarts par rapport à celui-ci ont été observés dans le pays."


(Les cercles indiquent la population des régions de Russie)

Ceux. L’écart par rapport à la « loi Zipf » en Russie n’est pas le résultat d’une économie planifiée (comme en Chine), mais une conséquence de la nature impériale du pays (quand une ou deux villes jouent le rôle de métropole).

Sur la base de ces tendances, la probabilité de développement/régression urbaine en Russie est la suivante :

— La plupart des villes russes se situent au-dessus de la courbe de Zipf idéale, de sorte que la tendance attendue est une réduction continue du nombre et de la population des villes petites et moyennes en raison de la migration vers les grandes villes.

— Plus de 7 millions de villes (Saint-Pétersbourg, Novossibirsk, Ekaterinbourg, Nijni Novgorod, Kazan, Chelyabinsk, Omsk), situées en dessous de la courbe de Zipf idéale, disposent d'une réserve importante pour la croissance démographique et s'attendent à une croissance démographique.

— Il existe des risques de dépeuplement de la première ville du classement (Moscou), puisque la deuxième ville (Saint-Pétersbourg) et les grandes villes suivantes sont loin derrière la courbe Zipf idéale en raison d'une diminution de la demande de main-d'œuvre avec une augmentation simultanée de le coût de la vie, comprenant en premier lieu le coût d'achat et de location du logement.

(En URSS, la « loi Zipf » n'a pas non plus fonctionné - on peut voir l'écart des villes par rapport à la courbe Zipf, là où elles auraient dû être)

Richard Florida, dans son livre « The Creative Class », remarque une autre différence entre les villes américaines et russes. Aux États-Unis, la concentration de la classe créative se situe dans les villes de taille moyenne dispersées dans tout le pays. Ainsi, la part la plus élevée de la classe créative se trouve dans des villes comme San Jose, Boulder (Colorado), Huntsville (Alabama), Corvallis (Oregon), etc. - chez eux, cette part est de 40 à 48 %. Mais la plus grande ville des États-Unis, New York, fait partie des paysans moyens en termes de part de la classe créative - 35 % du nombre total de travailleurs et 34e place dans le classement, la deuxième ville du pays, Los Angeles. - généralement 60ème place. Une tendance similaire est observée dans d’autres pays où fonctionne la « loi Zipf » (Allemagne, France, Italie, Suède, etc.).

En Russie, presque toute la classe créative du pays est concentrée à Moscou et les villes restantes restent des zones de l'époque industrielle du milieu du XXe siècle.

Tout cela est terriblement excitant, mais peut-être moins mystérieux que la loi de Zipf. Il n’est pas si difficile de comprendre pourquoi une ville, qui est essentiellement un écosystème, bien que construite par l’homme, devrait obéir aux lois naturelles de la nature. Mais la loi de Zipf n’a pas d’analogue. Il s’agit d’un phénomène social qui ne s’est produit qu’au cours des cent dernières années.

Tout ce que nous savons, c'est que la loi de Zipf s'applique également à d'autres systèmes sociaux, notamment aux systèmes économiques et linguistiques. Alors peut-être existe-t-il des règles sociales générales qui créent cette étrange loi, et un jour nous pourrons les comprendre. Celui qui résoudra cette énigme trouvera peut-être la clé pour prédire des choses bien plus importantes que la croissance des villes. La loi de Zipf n’est peut-être qu’un petit aspect d’une règle mondiale de dynamique sociale qui façonne la façon dont nous communiquons, commerçons, formons des communautés et bien plus encore.

P.S. Personnellement, il me semble qu'une loi avec des hypothèses aussi approximatives sur les chiffres et un tas d'exceptions est généralement difficile à appeler une loi. Juste une coïncidence.

Qu'en penses-tu?

sources

Georges Zipf

La principale source d'information sur Internet sont les textes. Naturellement, la promotion des sites vers les TOP de recherche est largement associée à la rédaction correcte d'un tel contenu. Mais écrire du texte ne suffit pas : vous devez également le formater conformément aux diverses règles et recommandations SEO. Parmi ceux-ci, les plus populaires et les plus utilisés sont :

  • Minimum de nausées, d'eau et de spam.
  • La structure correcte du matériel publié (titres, listes).
  • Saisie des clés.

Ce sont toutes les bases, c'est pourquoi la plupart des optimiseurs les utilisent. Mais il existe de plus en plus de sites sur Internet, de sorte que certains de leurs propriétaires recherchent d'autres options pour promouvoir avec succès leur produit. Et ici, certains d’entre eux se souviennent d’une certaine loi de Zipf. Mais non seulement ils commencent à adapter leurs propres écrits à un service qui fonctionne sur la base des déclarations d'un scientifique anglais qui a vécu il y a on ne sait combien d'années, mais ils obligent également les rédacteurs embauchés à se creuser la tête là-dessus !

Mais le Dr Aitupit est vigilant, c'est pourquoi, comme Black Cloak, il se précipite au secours des gribouilleurs d'Internet afin de comprendre l'efficacité de cette méthode de promotion des sites dans les Tops des moteurs de recherche les plus connus.

Vérifiez selon la loi de Zipf

En fait, il n’y a que deux caractéristiques les plus importantes :

  • Nausée du contenu vérifiable.
  • Naturel.

Le premier inconvénient de ce produit réside précisément dans les indicateurs de nausée : les développeurs n'ont clairement pas pris en compte qu'il existe une déclinaison classique et académique de cette caractéristique SEO. Et la plupart des personnes travaillant dans ce domaine savent que des méthodes complètement différentes sont utilisées pour réduire les performances de chaque option (le Dr Aitupit tentera d'en parler dans l'un de ses prochains articles). Mais Tsipfo-service n'en informe pas ses utilisateurs, ce qui peut parfois entraîner quelques difficultés. Je ne vais pas vous tourmenter longtemps en vous disant que dans ce cas, il ne s'agit que de nausées classiques.

Passons à la « Naturalité ». Qu'est-ce que c'est? Je cherchais depuis longtemps des informations adéquates sur cette question. Mais tout ce que j'ai trouvé, c'est une réécriture constante de certains mots abstrus, dont le sens est impossible à comprendre sans quelques bouteilles de bière. Non, bien sûr, je suis peut-être stupide, mais chacun d'entre vous est capable de comprendre ceci :

« ..modèle empirique de distribution de fréquence des mots dans une langue naturelle : si tous les mots d'une langue (ou simplement un texte suffisamment long) sont classés par ordre décroissant de fréquence de leur utilisation, alors la fréquence du nième mot dans tel une liste s'avérera approximativement inversement proportionnelle à son numéro de série n (le soi-disant rang de ce mot, voir échelle d'ordre). Par exemple, le deuxième mot le plus utilisé apparaît environ deux fois moins souvent que le premier, le troisième trois fois moins souvent que le premier, et ainsi de suite.

Empirique, bon sang, modèle... Il fallait écrire quelque chose comme ça ! Eh bien, Satan ne lui pardonnera pas. Ce n'est pas le plus intéressant ! Il est intéressant de noter que l'auteur de ce dicton est un linguiste américain qui a vécu au milieu du siècle dernier, alors que seuls George Lucas et Leonid Ilitch Brejnev connaissaient Internet. Autrement dit, il y a des gens qui croient que les moteurs de recherche modernes sont simplement obligés d’effectuer des analyses selon la loi de Zipf ? Pardon, Monsieur, mais pourquoi diable ?...

Probablement, certains lecteurs, après les mots ci-dessus, décideront que l'auteur de cet opus est un bouffon typique ? Je vais essayer d'apporter des arguments valables pour vous convaincre !

– L’exigence que les paramètres de texte soient conformes à la loi de Zipf ou, pour être précis, à toutes sortes de « services » censés vérifier la conformité des textes est une pure profanation. Cette condition n'a aucun sens tant du point de vue de la qualité du texte que du point de vue de son optimisation pour les moteurs de recherche.

– Les tests Zipf s’apparentent aux amulettes SEO et au Feng Shui – J’ai entendu une sonnerie, mais je ne sais pas où elle se trouve. Et comme en général, il y a beaucoup de mystification pseudo-scientifique dans le référencement en raison de la fermeture initiale des algorithmes des moteurs de recherche, le test Zipf a rejoint très harmonieusement les indicateurs de qualité les plus pertinents - densité des clés et unicité, dont les résultats, à leur tour, doivent également être acceptés dans la mesure où ils le sont.

Aucune spéculation de ma part – des mots honnêtement communiqués écrits sur cette loi !

Et je suis prêt à souscrire à chaque mot de Zheka et Advego. Soyons créatifs. Imaginez qu'il y ait une sorte de mitrailleuse devant vous. Vous devez monter et composer une combinaison arbitraire de chiffres sur son tableau de bord. Personne ne connaît le bon numéro, donc le montant des gains varie à chaque fois. Certains entrent simplement les valeurs et s'en vont, d'autres commencent à inventer une sorte de système : ils dansent la rumba, crachent trois fois strictement à un angle de quinze degrés, mangent la chèvre qui a séché il y a trois jours, et ainsi sur. Et puis l'un des derniers a de la chance : il remporte le jackpot ! Pourquoi il a eu de la chance, il le sait. Peut-être qu'il a juste deviné la combinaison, ou peut-être que le coq était magique. Mais le lendemain, cet homme s'approche de la machine et installe une table à côté, sur laquelle il invite tout le monde à essayer sa méthode avant de composer des numéros...

Toujours pas convaincu ? Ensuite, j’utiliserai l’artillerie lourde et mènerai une expérience.

Vérification visuelle du texte à l'aide de la loi de Zipf

Pour le travail à venir, j'ai décidé de prendre plusieurs phrases clés différentes et de vérifier la conformité des textes avec la loi Zipf, situés à différents endroits dans le TOP de notre moteur de recherche national Yandex. Commençons.

La première clé est « Construire une maison en bois ».

Je choisis un site qui se situe en haut des classements de recherche et fais une analyse :

Ce que nous avons : naturel – 80, nausée – 5,9.

Je me rends sur la page ci-dessous dans le moteur de recherche, sélectionne un site parmi la troisième douzaine et effectue une analyse :

Résultat : naturel – 82, nausées – 6,16.

Je descends une dizaine de positions et répète la procédure :

Résultat : E – 86, T – 8,6.

Mais autre chose est dans le TOP ! Peu? Nous répétons le contrôle. Prenez la clé suivante. Disons - traitement des hémorroïdes.

Résultat : E – 70, T – 11,23.

Deux douzaines de postes plus bas :

Résultat : E – 91, T – 4,90.

Une autre page ci-dessous :

Résultat : E – 91, T – 4,12.

Conclusion

Comme le montre l’analyse, les meilleurs indicateurs du caractère naturel des textes selon la loi de Zipf ne garantissent pas du tout le succès de la concurrence avec des textes situés sur d’autres ressources Internet. Cependant, c'est toujours à vous de décider...


Bonjour, chers lecteurs ! La loi de Zipf aidera à vérifier le naturel du texte. Donc, du moins, on le croit. Quel genre de « naturel » avons-nous sur la tête ? Est-il également nécessaire de surveiller cet indicateur, quelle est son importance pour la promotion d'un site Web ? Est-il correctement détecté par les services en ligne ? Ce serait bien de régler toutes ces questions. Des opinions diverses, parfois très contradictoires, circulent à ce sujet sur Internet. Permettez-moi de mettre mon grain de sel et d'essayer de décrire mes propres approches de ce Zipf.

Pourquoi tout à coup parler de la loi - au féminin ? Oui, parce que je veux vraiment comparer l'idée originale du linguiste et philologue George Kingsley Zipf avec un renard rusé qui, par crochet ou par escroc, pénètre dans notre « hutte libérienne » - rédaction et commence à y télécharger les droits. Mais d’abord, un peu de contexte sur les mathématiques et les statistiques. Mais ne vous inquiétez pas, mes amis, je ne suis pas moi-même un bon calculateur, donc je ne vous torturerai pas, ni moi-même.

La loi de Zipf et les modèles mondiaux

J.C. Zipf se disait spécialiste de l'écologie sociale et statistique. Une combinaison intéressante, n'est-ce pas ? Il a tenté d'explorer les schémas des phénomènes sociaux du point de vue des statistiques et des mathématiques des grands nombres. Et il a réussi dans une certaine mesure. Ainsi, en prenant l'exemple de la comparaison de la fréquence d'utilisation des mots de la langue anglaise avec leur nombre dans le « tableau des rangs », le scientifique a découvert qu'une relation inversement proportionnelle est observée. En gros, le mot qui se classe deuxième dans la liste en termes de fréquence d'utilisation est utilisé deux fois moins souvent que le premier ; le troisième - trois fois et ainsi de suite. D'un point de vue mathématique, cette relation fonctionnelle est décrite par la distribution de Pareto. Bien entendu, pour chaque langue, ses propres constantes et coefficients sont introduits.

Le même schéma peut être observé dans certaines catégories économiques, par exemple répartition des revenus des personnes les plus riches du monde. De plus, la population des plus grandes villes de la plupart des pays du monde est également disposée selon une ligne désignée par le même Zipf. Avec quelques écarts, compte tenu de toutes sortes de facteurs perturbateurs, mais la loi fonctionne d'une manière incompréhensible. Je ne veux pas m’attarder longtemps sur ce phénomène. Nous sommes toujours intéressés par la bête mystérieuse de Zipf, même pas du point de vue de la linguistique, mais du point de vue de son applicabilité à de petits échantillons de mots, comme nos articles.

Vaut-il la peine de vérifier des textes en utilisant la loi de Zipf ?

Attention, mes amis, dans la section précédente, nous avons parlé de mégalopoles en croissance ou de capitale des riches, en utilisant des superlatifs. Sur l'un des sites, j'ai même trouvé des informations selon lesquelles les calculs de Zipf ne fonctionnent pas même pour les villes à population moyenne. C’est la même chose en économie : pour les entreprises dont le chiffre d’affaires est inférieur à 10 millions de dollars/an, la loi rang/fréquence ne fonctionne pas non plus. En ce qui concerne la recherche linguistique, l’ensemble du groupe linguistique constitue une assez bonne sélection. L'anglais, par exemple, compte environ un million de mots. Et là, oui, le rapport entre fréquence et usage de ces mots construit idéalement une hyperbole. Mais je n’ai trouvé nulle part aucune restriction pour appliquer Zipf à de petits échantillons de mots.

Cependant, un simple sens de la logique suggère que si les villes de taille moyenne (avec une population de centaines de milliers d'habitants) ou les entreprises avec des revenus inférieurs à 10 millions (les pauvres !) ne peuvent pas se faire l'apologistes des calculs de Zipof, alors pourquoi torturer nos textes ? . Après tout, ils contiennent rarement mille mots. Ainsi, un article moyen de 3 000 caractères contient environ 400 à 500 mots. Et quel modèle essayons-nous de trouver parmi un tel groupe ?

Non, il est possible que les développeurs de services en ligne de vérification de textes selon la loi de Zipf aient tenté d'une manière ou d'une autre de prendre en compte le fait que nos articles peuvent difficilement être qualifiés de méga-échantillons sémantiques. Mais s’ils y parvenaient, l’affaire sentirait le prix Nobel ! Une telle modification de la découverte du célèbre scientifique nécessiterait certainement au moins l’ajout du nom de famille de l’enfant prodige, à l’instar de la loi Zipf-Pupkin. Ça a l'air bien? Mais nous n’avons pas entendu de bruit de fanfare.

Et encore une fois, la logique, couplée à une certaine expérience de vie, le suggère : les développeurs d’algorithmes de classement de recherche ont joué un peu trop fort. Je comprends leur tâche difficile : chaque membre de l'équipe doit constamment prouver son efficacité, sa créativité et être plein d'idées. Alors ils sont tombés sur nos têtes.

Expériences réalisées par des optimiseurs zélés

Eh bien, inutile de tirer au canon sur nos articles moineaux : nos opus ne sont pas adaptés à vos expérimentations avec Zipf, chers développeurs. Dans de petits échantillons, ces modèles sont tirés par les cheveux. Bien entendu, ceci n’est que mon opinion. J’ai aussi constaté le contraire sur Internet : la loi de Zipf, dit-on, a amélioré la position du site dans les résultats de recherche, les textes sont devenus sensiblement plus intéressants, et ainsi de suite, dans le même esprit. De nombreuses personnes tentent d'analyser la conformité du TOP avec la distribution Zipf et tirent des conclusions sur cette base. Arrêtez, messieurs ! Avec environ huit cents facteurs pris en compte par les moteurs de recherche lors du classement, essayez-vous de suivre l’impact d’un seul ? Eh bien, ce n'est pas bon ! La recherche n'est pas menée de cette manière et ses résultats ne peuvent être considérés comme corrects.

Malgré toute mon attitude négative non pas envers Zipf (je respecte la science), mais envers les tentatives injustifiées de croire à nouveau en l'harmonie avec l'algèbre, j'ai plus d'une fois analysé mon travail pour le naturel dans les services en ligne. A la demande des clients, bien entendu. Je peux dire qu'un langage humain vivant, sans clichés bureaucratiques, sans clichés ni tautologie, aide très facilement à surmonter les barrières zipofiennes. Atteindre 70 à 80 % de naturel du texte n'est pas du tout difficile. Ceux qui le souhaitent peuvent consulter leurs textes par exemple. Je ne pense pas qu’il soit nécessaire de faire ça tout le temps. De plus, vous ne devriez pas compter sur le renard Zipf pour la promotion. Honnêtement, mes amis, ne perdez pas votre temps et votre énergie dans des expériences non scientifiques.

Ce texte est naturel à 87%. Assez. Je pense que même si je rattrape 98%, cela n'affectera en rien la position dans les résultats de recherche. Selon mes prévisions, cet article ne sera pas classé dans le TOP. Bon, d'accord, mais elle a dit ce qu'elle voulait.

Au revoir, mes amis.

Votre guide du pays Copywriting GALANT.



Avez-vous aimé l'article? Partagez avec vos amis !