Les principales composantes de la définition de l'image scientifique du monde. Vue psychologique (PsyVision) - quiz, matériel pédagogique, catalogue de psychologues

L'image scientifique du monde est un système holistique d'idées sur les propriétés générales et les modèles de la nature, résultant de la généralisation et de la synthèse de concepts, principes, directives méthodologiques de base des sciences naturelles ou d'une forme particulière de systématisation des connaissances, qualitatives. généralisation et synthèse idéologique de diverses théories scientifiques.

Étant un système intégral d'idées sur les propriétés et les modèles généraux du monde objectif, l'image scientifique du monde existe comme une structure complexe, comprenant comme composants l'image scientifique générale du monde et l'image du monde des sciences individuelles (physique , biologique, géologique, etc.). Les images du monde des sciences individuelles, à leur tour, incluent de nombreux concepts correspondants - certaines manières de comprendre et d'interpréter tous les objets, phénomènes et processus du monde objectif qui existent dans chaque science individuelle.

Dans la structure de l'image scientifique du monde, deux composantes principales peuvent être distinguées : conceptuelle et sensorielle-figurative. Le conceptuel est représenté par des catégories et des principes philosophiques (la matière, le mouvement, l'espace, le temps, etc.) (l'unité matérielle du monde, la connexion universelle et l'interdépendance des phénomènes, le déterminisme, etc.), des concepts et des lois scientifiques générales (par exemple exemple, la loi de conservation et de transformation de l'énergie), mais aussi les concepts fondamentaux des sciences individuelles (champ, matière, Univers, espèces biologiques, population, etc.).

La composante sensorielle-figurative de l'image scientifique du monde est un ensemble d'idées visuelles sur certains objets et leurs propriétés (par exemple, modèle planétaire atome, image de la Métagalaxie sous la forme d'une sphère en expansion, etc.).

    Philosophie des sciences. Orientations philosophiques modernes sur la nature de la science et le développement des connaissances scientifiques (positivisme, structuralisme, herméneutique, post-positivisme, etc.).

Philosophie des sciences est une direction philosophique qui étudie les caractéristiques et les modèles les plus généraux de l'activité scientifique et cognitive. En tant que direction particulière de la recherche philosophique, elle s'est constituée depuis la seconde moitié du XIXe siècle. en relation avec la nécessité de résoudre les problèmes méthodologiques du développement rapide de la science.

La formation de la structure disciplinaire de la science, la professionnalisation institutionnelle de l'activité scientifique ont rendu urgent la compréhension de l'essence de l'activité scientifique et cognitive ; évaluation critique des prémisses et des procédures de l'activité scientifique se déroulant dans différentes conditions cognitives et socioculturelles ; le sens et le rôle des idées et représentations idéologiques et philosophiques dans le développement de la recherche scientifique.

La philosophie des sciences a été présentée pour la première fois comme une direction particulière dans les travaux de O. Comte, G. Spencer et J. S. Mill. W. Whewell en uniforme positivisme (du latin positivus - positif). Leurs recherches portaient principalement sur les problèmes associés à l'étude des procédures inductives, logiques et psychologiques de la cognition expérimentale. Le fondateur du positivisme, Auguste Comte (1798-1857), affirmait que la science devait se limiter à décrire les aspects extérieurs d'un objet, ses phénomènes, et rejeter la spéculation comme moyen d'acquérir des connaissances. Le positivisme a déclaré que les problèmes, les déclarations et les concepts qui ne pouvaient être ni résolus ni vérifiés par l'expérience étaient faux ou dénués de sens. D'où le déni de la valeur cognitive de la recherche philosophique et l'affirmation selon laquelle les tâches de la philosophie sont la systématisation et la généralisation des connaissances empiriques des sciences sociales.

A cette époque, les idées principales de la direction positiviste en philosophie ont été posées. qui a essentiellement déterminé son développement à différentes étapes historiques. Ces premières idées comprennent : phénoménisme épistémologique– réduction des connaissances scientifiques et de la totalité des données sensorielles et élimination complète du « non-observation » de la science ; empirisme méthodologique– la volonté de décider du sort des connaissances théoriques à partir des résultats de leurs tests expérimentaux ; descriptivisme– réduction de toutes les fonctions de la science à la description, mais non à l'explication ; complet élimination problèmes philosophiques traditionnels.

La deuxième forme de positivisme était empiriocritisme ou Machisme(fin du 19ème siècle). Ses représentants Ernst Mach, Richard Avenarius, Henri Poincaré et d'autres ont cherché à comprendre les processus révolutionnaires qui ont eu lieu dans les fondements de la science au tournant du siècle. Le principal domaine de l'analyse philosophique est devenu les principes fondamentaux de la science. L'attention des Machiens se concentrait sur l'analyse des sensations, l'expérience sensorielle en tant que telle. Ils ont affirmé, poursuivant les traditions du « premier » positivisme, l'idéal d'une science « purement descriptive » et ont rejeté la partie explicative, la jugeant inutile et métaphysique. En même temps, ils rejetaient les concepts de causalité, de nécessité, de substance, etc., fondés sur le principe phénoménologique de définition des concepts à partir de données observées. « La seule chose qui existe » n'était reconnue que par l'expérience comme la totalité de tout ce qui était « directement observable », que les Machiens appelaient « éléments du monde », soi-disant neutres par rapport à la matière et à la conscience, mais qui se révélait essentiellement être un élément du monde. « complexe de purification ». Cela a même conduit au développement de certaines tendances mystiques. Ainsi, Mill a soutenu que le type de pensée positif ne nie pas du tout le surnaturel.

Les nouveaux problèmes apparus dans le développement de la science dans les années 20 et 30 du XXe siècle ont conduit à l'émergence d'un nouveau forme historique positivisme néopositivisme . L'essence de ces problèmes était la nécessité de comprendre le rôle des moyens signes-symboliques de la pensée scientifique en relation avec la mathématisation et la formalisation de la recherche scientifique, la relation entre l'appareil théorique de la science et sa base empirique. Autrement dit, contrairement aux Machiens, dont l’attention était concentrée sur l’analyse des sensations et de l’expérience sensorielle, les néopositivistes mettaient l’accent sur l’étude de l’appareil logique des sciences naturelles modernes.

Le néopositivisme est apparu presque simultanément en trois Pays européens– Autriche (« Cercle de Vienne »), Angleterre (B. Russell), Pologne (Ecole de Lviv-Varsovie).

Historiquement, le premier type de néopositivisme était positivisme logique, né dans les années 20 du XXe siècle dans le « Cercle de Vienne », qui réunissait des logiciens, des mathématiciens, des philosophes et des sociologues. Elle était dirigée par Moritz Schlick (1882 – 1976). Les opinions des membres du cercle ont été fortement influencées par Ludwig Wittgenstein (1889 – 1951) et son ouvrage « Traité Logico-Philosophicus » (1921), Bertrand Russell (1872 – 1970) et son concept d’atomisme logique, Alfred Ayer (1910-1989). ), George Moore (1873 – 1958).

Le positivisme logique a poursuivi sous de nouvelles formes les traditions de l'empirisme et du phénoménisme des deux premières formes de positivisme. Le sujet de la philosophie, selon les partisans du positivisme logique, devrait être le langage de la science comme moyen d'exprimer la connaissance, ainsi que l'activité d'analyse de cette connaissance et les possibilités de son expression dans le langage. Autrement dit, la philosophie n’est possible qu’en tant qu’analyse logique du langage. La métaphysique traditionnelle est considérée comme une doctrine dénuée de sens du point de vue des normes logiques du langage. « Le but de la philosophie est la clarification logique des pensées. La philosophie n'est pas une théorie, mais une activité... Le résultat de la philosophie n'est pas un certain nombre de « propositions philosophiques », mais une clarification de propositions.

Les positivistes logiques attribuaient les déclarations scientifiques (déclarations des scientifiques) à deux types : théorique et empirique. L'analyse logique du langage scientifique supposait : 1) réduction, réduction des connaissances théoriques à des connaissances empiriques et 2) vérification sensorielle et empirique (vérification - de l'anglais verificare - vérification, confirmation) des déclarations empiriques. Ceux. Le positivisme logique cherche à soumettre toutes les connaissances disponibles à une analyse critique du point de vue du principe de vérification (vérifiabilité).

Le principe de vérification a été conçu, d’une part, comme un critère de signification scientifique et, d’autre part, comme un critère de vérité et de fausseté. Selon ce principe, toute déclaration scientifiquement significative peut être réduite à un ensemble de phrases protocolaires (propositions qui constituent la base empirique de la science), enregistrant les données de « l'expérience pure », les expériences sensorielles du sujet (par exemple, « maintenant Je vois du vert », « ici j'ai chaud » etc.). On supposait que les données de la « pure expérience » étaient une combinaison de faits et d’événements indivisibles et absolument simples. Ils sont absolument fiables et neutres par rapport à toutes les autres connaissances. Et le processus d’apprentissage commence avec eux.

Postpositivisme – de nombreux concepts qui ont remplacé le positivisme logique (néopositivisme).

Les partisans de divers mouvements postpositivistes sont en grande partie en désaccord les uns avec les autres, critiquent les idées dépassées du néopositivisme, tout en maintenant une continuité par rapport à celui-ci.

L'idée principale du postpositivisme est méthode rationnelle de cognition.

Les plus brillants représentants du postpositivisme :

– Karl Popper ;

– Imre Lakatos ;

–Paul Feyerabend;

–Thomas Kuhn.

1. L'un des représentants les plus intéressants du postpositivisme est le philosophe anglais moderne Karl Popper.

Selon Popper, la tâche de la philosophie de la connaissance scientifique est de résoudre le problème de la croissance de la connaissance. La croissance des connaissances peut se produire dans le processus de discussion rationnelle, qui agit comme une critique des connaissances existantes. La philosophie de Popper est à juste titre considérée comme un rationalisme critique.

Selon Popper, les scientifiques font des découvertes en passant d'hypothèses à des affirmations uniques, contrairement à l'opinion existante des inductivistes - des faits à la théorie. Popper appelle une théorie scientifique un concept comparable aux données expérimentales, ce qui signifie qu'il peut être falsifié à tout moment. La philosophie ne peut pas être falsifiée, ce qui signifie que la philosophie n'a aucune nature scientifique. La philosophie de Popper agit comme une compréhension de la croissance des connaissances scientifiques et inclut les principes de discussion rationnelle-critique, de falsificationnisme et de faillibolisme.

2. Un autre représentant du postpositivisme anglais est Imre Lakatos, qui a proposé la méthodologie des programmes de recherche. Selon Lakatos, il est important de comparer les théories entre elles.

Lakatos, en véritable postpositiviste, a attiré l'attention sur la nécessité d'une étude approfondie de l'histoire du développement des connaissances scientifiques. La recherche scientifique qui n’est pas accompagnée d’une étude de l’histoire des sciences conduit à une connaissance unilatérale et crée les conditions du dogmatisme.

3. Paul Feyerabend est un philosophe américain qui critique le cumulatif, selon lequel le développement des connaissances résulte de l'accumulation progressive des connaissances.

Ce penseur soutient la thèse de l'incommensurabilité des théories. Selon Feyerabend, le pluralisme devrait régner tant en politique qu’en science.

Le mérite du penseur américain est son rejet persistant des idéaux de la science classique qui ont acquis des caractéristiques stables ; la science est un processus de multiplication de théories dans lequel il n'y a pas de ligne unique.

4. Un autre philosophe américain, Thomas Kuhn, à la suite de Feyerabend, critique le schéma de développement de la science proposé par Popper.

L'idée principale de Kuhn est que dans le développement des connaissances scientifiques, les activités de la communauté scientifique jouent un rôle important et les aspects sociaux et psychologiques revêtent une importance particulière.

Le structuralisme un nom général pour un certain nombre de tendances, principalement dans les connaissances socio-humanitaires du XXe siècle, liées à l'identification de la structure des systèmes étudiés et au développement de méthodes de recherche structurelle. Le structuralisme apparaît comme une méthode de recherche en linguistique, en critique littéraire, en psychologie et en théorie de l'ethnographie au cours de la transition de ces sciences d'une recherche principalement descriptive-empirique à une recherche théorique abstraite.

Il s'est largement répandu en France dans les années 60, se réclamant de l'objectivité et de la rigueur scientifique par opposition à l'existentialisme qui s'opposait ouvertement à la science et à la méthode scientifique. Les principaux représentants du structuralisme sont Claude Lévi-Strauss, Jacques Derida, Michel Foucault, Jean Lacan et d'autres. Dans leurs recherches, ils ont cherché à étayer la connaissance humanitaire en tant que science théorique. Dans le même temps, par exemple, Lévi-Strauss oriente les sciences humaines vers l’idéal de rigueur scientifique naturelle.

Les structuralistes mettent l'accent sur l'identification de la structure comme un ensemble de relations cachées qui sont invariantes sous certaines transformations et de propriétés systémiquement acquises qui en dépendent. La structure n'est pas seulement la structure d'un objet, des combinaisons de ses parties et éléments, accessibles à l'observation directe ; elle est révélée par le pouvoir de l'abstraction ; Dans ce cas, l'abstraction se produit à partir de la spécificité du substrat des éléments d'un système particulier. La structure ainsi calculée peut être étudiée à l'aide des méthodes de la logique formelle et des mathématiques (théorie des groupes, théorie des graphes, etc.), de l'informatique et de l'information. Le calcul de l'aspect structurel en sciences humaines s'effectue, en règle générale, à l'aide d'un certain système de signes.

Le calcul de l'aspect signe dans le langage, l'art, les mythes, etc. permet d'identifier des structures abstraites dues à des caractéristiques des systèmes de signes telles que la nette discrétion de leurs éléments et leur relative indépendance par rapport aux spécificités de leur substrat (comme en témoigne, par exemple , par le remplacement des sons par des lettres).

Un trait caractéristique du structuralisme est le désir de manipulation consciente des signes, des mots, des symboles pour découvrir des structures profondes inconscientes, des mécanismes cachés des systèmes de signes (« structures mentales » de Lévi-Strauss, « formations discursives » de Foucault, etc.) qui servent d'intermédiaires. la relation entre la conscience humaine et le monde . Ces structures inconscientes, du point de vue des structuralistes français, ne sont pas des impulsions irrationnelles de nature empirico-biologique (S. Freud), elles sont logiques et rationnelles et ne sont rien de plus qu'un mécanisme caché et inconscient de systèmes de signes (« fonction symbolique »). Ainsi, une personne qui parle normalement une langue applique des règles grammaticales dans son discours sans y penser et, peut-être même sans connaître leur existence. La méthode structurelle vous permet de passer de connexions superficielles et conscientes à des schémas cachés et inconscients.

Lévi-Strauss cherche ce qu'il y a de commun à toutes les cultures et à tous les peuples dans l'idée du superrationalisme ; selon lui, le super-rationalisme est l'harmonie des principes sensuels et rationnels, perdus par la civilisation européenne moderne, mais préservés au niveau de la pensée mythologique primitive.

Le structuralisme linguistique trouve son origine dans les travaux de l'éminent linguiste suisse F. de Saussure (1857 – 1913) et de son ouvrage « Cours de linguistique générale ». Dans les différents courants du structuralisme linguistique qui se sont développés après de Saussure, l'identification des structures cachées du langage s'est effectuée de différentes manières et à différents niveaux d'abstraction. Leur point commun est la primauté méthodologique des relations sur les éléments du système.

L'étude du rôle déterminant des relations a conduit ici à la création d'une toute nouvelle science - la phonologie, issue de la phonétique précédente en tant qu'étude des sons linguistiques (œuvre de l'école de structuralisme de Prague).

L'analyse des pratiques cognitives du structuralisme permet de calculer les principaux éléments catégoriels de ses constructions : la structure, le langage, l'inconscient. Dans ce cas, les structures du langage sont interprétées comme un exemple de structures objectives, abstraites de la conscience et des expériences du locuteur, des spécificités d'actes de parole spécifiques. L'inconscient est considéré comme une condition nécessaire à la connaissance : c'est quelque chose qui était extérieur à la conscience et qui donne accès à la conscience.

La conséquence d'une telle focalisation méthodologique sur l'objectivité est qu'une personne, un sujet, soit complètement exclu du champ de considération du structuralisme, soit interprété comme quelque chose de dépendant, dérivé du fonctionnement des structures objectives. Cette thèse structuraliste, dite de la « mort de l’homme », a suscité de vives critiques.

Un trait caractéristique du structuralisme en tant que méthode de recherche est son abstraction du processus de développement de l'objet étudié. Et c’est là, d’une part, ses avantages et, d’autre part, ses limites. En tant que méthode d'identification de structures abstraites cachées, il s'agit d'une méthode scientifique efficace, qui n'est probablement pas de nature philosophique, mais de nature scientifique générale. Il se combine bien avec des méthodes telles que la modélisation, l'hypothético-déductive, l'information, la formalisation et la mathématisation. Mais cela ne permet pas d'étudier les processus de développement ; pour cela, il est nécessaire d'utiliser d'autres approches et méthodes.

La spécificité philosophique du structuralisme n’est pas facile à définir. D'une part, le structuralisme contient une critique des abstractions qui soutiennent le subjectivisme rationaliste (par exemple, le sujet, la conscience de soi, le jugement), d'autre part, le structuralisme développe des idées rationalistes dans une nouvelle situation cognitive et idéologique. En développant ses positions d’approche, le structuralisme a influencé la recherche d’objectivité et l’étude du langage en phénoménologie, et a déterminé de manière significative la forme de l’herméneutique moderne. L’influence du structuralisme a renforcé la problématisation des schémas empiristes étroits dans les variantes modernes du positivisme.

De la fin des années 60 au début des années 70, il y a eu une transition vers une nouvelle étape dans le développement du structuralisme : le poststructuralisme (années 70-80). La connaissance est privée de son aura d’objectivité et est interprétée comme une concentration de forces sociales et politiques, comme l’incarnation de stratégies de pouvoir, de coercition et de motivation. L'accent dans les recherches des structuralistes passe de l'analyse des structures objectives neutres à l'analyse de tout ce qui se trouve en dehors de la structure, qui fait référence à son « mauvais côté ».

Le poststructuralisme vise à identifier les paradoxes et les apories qui surviennent lorsqu'on essaie de comprendre objectivement l'homme et la société à l'aide de structures linguistiques, à surmonter l'ahistorisme structuraliste et le réductionnisme linguistique, à construire de nouveaux modèles de formation de sens, à créer nouvelle pratique lecture « ouverte », dépassant les interprétations analytiques. Les principaux représentants du poststructuralisme sont Derrida, Deleuze, Lyotard, Baudrillard, Bloom, de Man, Miller et d'autres. Comme le structuralisme, le poststructuralisme ne forme pas une unité organisationnelle et n'a pas de programme général, il existe un certain point commun dans le domaine du problème et dans les approches des problèmes.

Parmi les orientations du poststructuralisme, deux sont particulièrement importantes – avec un accent sur la réalité politique : « il n’y a que du texte » (Derrida) et « tout est finalement politique » (Deleuze).

L'une des tâches principales du poststructuralisme est la critique de la métaphysique d'Europe occidentale avec son logocentrisme, la découverte du pouvoir et de la puissance du langage derrière tous les produits culturels et les modèles mentaux du langage.

L'un des représentants les plus éminents du poststructuralisme est le philosophe français Jacques Derrida (né en 1930). L'un de ses ouvrages, « On Grammatology » (1967), est devenu programmatique pour le structuralisme. Ayant posé la question de l'épuisement des ressources de la raison dans les formes dans lesquelles elles ont été utilisées par les grandes orientations de la philosophie occidentale classique et moderne. Derrida considère une méthode de travail philosophique telle que la déconstruction comme une condition pour dépasser la métaphysique. Son essence est d'identifier des concepts de support et une couche de métaphores dans les textes, indiquant l'identité propre du texte, les traces de son chevauchement avec d'autres textes. La tâche principale de la déconstruction (opérations de « désassemblage » et « d’assemblage ») est de montrer dans tout type de texte l’importance d’éléments marginaux extra-systémiques, « de démêler et d’attirer les forces contradictoires du sens » (B. Johnson). ).

Dans ce cas, le contexte devient particulièrement important : le système s’ouvre et « entre dans le contexte ». Puisque le contexte peut être élargi sans limite, la signification qui dépend du contexte est complètement indéterminée. Sous la pression du contexte, les frontières entre « externe et interne » s’estompent dans le texte. À l’opposé de l’exclusion du sujet dans le structuralisme, le poststructuralisme avance la thèse de « l’inclusion » des désirs du sujet dans le processus de signification.

Le poststructuralisme aiguise la question des voies et des destinées de la philosophie. La philosophie est reconnue comme une force constructive directement impliquée dans la formation de nouveaux objets culturels, de nouvelles relations entre divers domaines activités spirituelles et pratiques. Son nouveau rôle ne peut être pleinement compris tant que cette expérience n’est pas pleinement vécue. La question reste entière, mais extrêmement significative pour son sort : peut-on contester, problématiser la raison autrement que dans les formes de la raison elle-même ? Pouvons-nous sacrifier une pensée développée et élaborée conceptuellement au profit d'une pensée instable qui essaie juste de naître - sans images ni concepts.

Herméneutiques . L'émergence de l'herméneutique en tant que mouvement philosophique particulier dans le dernier quart du XXe siècle, axé sur les problèmes de compréhension et d'interprétation des textes, révélateurs de sens, a eu un certain impact sur le développement de la philosophie non seulement dans les sciences humaines, mais également dans les sciences naturelles.

Le terme « herméneutique » lui-même et le concept de base qui lui correspond sont apparus dans l’Antiquité. Comme vous le savez, dans la mythologie grecque antique, Hermès était le médiateur entre les dieux et les simples mortels. Il devait interpréter les commandements des dieux aux hommes et les demandes des hommes aux dieux. C’est de là que naît le terme « herméneutique », qui désignait à l’origine l’art d’interpréter les paroles des oracles, les textes anciens, les signes du sens d’une langue étrangère, etc. Au Moyen Âge, l’herméneutique était inextricablement liée à la théologie, à l’interprétation des écrits des « pères de l’Église ».

Le fondateur de l'herméneutique moderne est Friedrich Schleiermacher, qui a jeté les bases de l'herméneutique en tant que théorie générale de l'interprétation. Ensuite, Wilhelm Dilthey a tenté de développer ces points de vue, en accordant une attention particulière à l'étude de l'essence du processus de compréhension. Il considérait cette dernière comme une « expérience » dans le sens où elle permet de saisir les significations cachées de l’existence humaine dans ses étapes historiquement critiques. Dans le même temps, il a soutenu que l’herméneutique est une méthodologie de connaissance humanitaire : « Nous expliquons la nature, mais nous comprenons l’esprit. »

Mais seulement à la fin du XXe siècle. L’illégalité d’opposer les sciences de l’esprit et les sciences de la nature, compréhension et explication, se réalise de plus en plus clairement. C’est pourquoi les philosophes des sciences se tournent vers l’herméneutique comme philosophie de la compréhension.

Les représentants les plus célèbres de l'herméneutique sont Hans Georg Gadamer (né en 1900), Paul Ricœur (né en 1913), Jacques Lacan (1901-1981), Karp Otto Apel (né en 1922), etc. Sans analyser en détail tous les aspects de l'herméneutique en tant que direction philosophique, nous ne notons que celles d'entre elles qui sont importantes pour le développement de la science philosophique.

La base du processus de cognition est toujours une « compréhension préliminaire » donnée par la tradition, dans le cadre de laquelle, selon Gadamer, il n'est possible que de vivre et de penser. La "pré-compréhension" peut être corrigée, corrigée, mais il est impossible de s'en débarrasser complètement (elle n'existe pas vraiment" point zéro référence"). Autrement dit, le processus de cognition, tant historique que naturel, n'est pas un énoncé abstrait et indifférent de tout ce qui entre dans notre champ de vision, comme le croient les positivistes. Le chercheur aborde toujours le sujet étudié, le texte , d'un point de vue prédéterminé par la tradition. Selon Gadamer, cette pré-compréhension est basée sur les « préjugés » de la tradition culturelle, et ce sont eux, et non les aspects rationnels-logiques, qui déterminent l'essence de la pensée humaine.

De plus, pour Gadamer, le texte devient, pour ainsi dire, la réalité objective finale. Le texte s'avère objectivement indépendant tant par rapport à l'auteur que par rapport à son environnement et à son époque. La tâche de la recherche herméneutique consiste désormais non pas à identifier les sous-textes qui ont été pensés à un moment donné, mais à identifier diverses interprétations possibles (y compris celles qui n'étaient pas supposées auparavant).

Le principe méthodologique central de l'herméneutique est ce qu'on appelle le cercle herméneutique : pour comprendre le tout, il faut comprendre ses parties individuelles, mais pour comprendre pièces détachées il faut déjà avoir une idée du sens de l’ensemble. Par exemple, un mot ne peut être compris que dans le contexte d'une phrase, une phrase - uniquement dans le contexte d'un paragraphe ou d'une page, et cette dernière - uniquement dans le contexte de l'œuvre dans son ensemble, qui, à son tour, est impossible sans d’abord comprendre ses parties. Du point de vue de l’herméneutique, la tâche n’est pas d’ouvrir ce cercle, mais d’y entrer. La tradition linguistique dans laquelle s'enracine le sujet connaissant constitue à la fois le sujet de la connaissance et son fondement : une personne doit comprendre ce dans lequel elle réside elle-même. Parallèlement, on assiste à une certaine réévaluation du rôle des traditions et de la langue dans la connaissance.

En philosophie des sciences, le cercle herméneutique se développe comme l'interdépendance de la théorie et des faits : les faits sur lesquels une théorie est construite sont toujours conceptuellement chargés, leur sélection et leur interprétation sont déterminées par la théorie même qu'ils sont censés justifier.

L'idée de « pré-compréhension » exprime sous une forme singulière la croyance en la détermination socioculturelle de tout savoir. En effet, l’horizon de compréhension est toujours historiquement déterminé et limité. La compréhension non présupposée – qu’il s’agisse de l’étude de l’histoire ou de l’étude de la nature – est, par essence, une fiction.

Cependant, la spécification de cette prémisse générale dans l’herméneutique philosophique dégénère, en règle générale, et conduit à nier la possibilité de la vérité objective elle-même.

L’herméneutique a beaucoup fait pour clarifier la compréhension. En particulier, il a montré les limites des modèles naturalistes et mécanistes pour expliquer la compréhension et a attiré l'attention sur le problème de la compréhension et de l'interprétation.

Dans le même temps, l’herméneutique philosophique prétendait connaître la vérité sans méthode : il n’y a pas d’accord entre vérité et méthode. Selon Gadamer, l'activité subjective doit désormais être comprise non comme une méthode de connaissance de la vérité, mais comme son schéma herméneutique, l'anticipation.

    La relation entre science et technologie.

Pendant longtemps (surtout dans les années 50 et 60 de notre siècle), l'un des plus répandus a été le modèle dit linéaire, selon lequel la technologie est une simple application de la science ou des sciences appliquées. En d'autres termes, les sciences techniques ne sont pas reconnues comme un domaine indépendant de la connaissance scientifique, ce qui se manifeste par la non-division des sciences en sciences naturelles et techniques. Ainsi, J. Bernal dans son livre « La science dans l'histoire de la société » a évoqué les sciences appliquées, mais dans la relation entre science et technologie, une attention insuffisante a été accordée au contenu et au rôle de cette dernière. « La principale raison pour laquelle l'aspect scientifique de l'activité sociale est distingué des autres est, écrit-il, qu'il concerne avant tout la question de savoir comment faire les choses, se réfère au sommet d'une masse donnée de connaissances de faits et d'actions et découle avant tout de la compréhension, du contrôle et de la transformation des moyens de production, c'est-à-dire de la technologie qui pourvoit aux besoins humains... L'activité principale du scientifique est de découvrir comment fabriquer une chose, et le travail du l’ingénieur est de le créer. Il est facile de remarquer que dans cette affirmation de J. Bernal, les sciences naturelles et les connaissances techniques sont classées comme connaissances scientifiques, mais sans les diviser. Dans le même temps, l'aspect recherche était éloigné de l'activité technique et probablement inventive et activités pratiques sur la fabrication moyens techniques dans le domaine de la production. Ceci est confirmé par un autre raisonnement de J. Bernal : « La technologie est une manière de fabriquer quelque chose, acquise individuellement et socialement assignée ; La science est un moyen de comprendre comment le créer pour le rendre meilleur. Et ici, lors de la définition de la technologie, le rôle de l'activité créatrice individuelle de l'inventeur est noté. La science est présentée dans son intégralité, sans la diviser en connaissances naturelles et techniques.

Cependant, ce point de vue a été sérieusement critiqué ces dernières années en raison de sa forte simplification et de son inadéquation à la réalité. Ce modèle de la relation entre science et technologie, dans lequel la science reconnaît la fonction de production de connaissances, et la technologie seulement son application, est trompeur, car il affirme que la science et la technologie représentent des fonctions différentes exercées par la même communauté. En réalité, les activités d'invention et surtout de conception s'appuient directement sur les sciences techniques, puisque ce sont elles qui analysent la structure et le fonctionnement des moyens techniques de travail et fournissent des méthodes de calcul et de développement des dispositifs techniques. La science est gérée par une communauté, la technologie par une autre, ce qui, dans les conditions modernes, assure l'efficacité colossale du progrès scientifique et technologique.

Les processus de développement de la science et de la technologie sont souvent considérés comme indépendants les uns des autres, mais coordonnés. Ensuite, il y a deux options pour leur relation :

1) la science, à certains stades de son développement, utilise la technologie de manière instrumentale à ses propres fins, et vice versa, il arrive que la technologie ait besoin des résultats scientifiques comme outil pour obtenir les effets dont elle a besoin ;

2) la technologie fixe les conditions du choix des versions scientifiques, et la science, à son tour, fixe les conditions techniques. Nous avons devant nous un modèle évolutif de la relation entre la science et la technologie, qui capture les processus très réels de leur interaction.

Ce modèle distingue trois domaines interdépendants mais indépendants : la science, la technologie et la production ou, au sens large, l'utilisation pratique. Le processus d'innovation interne se déroule dans chacun de ces domaines selon un schéma évolutif. Le chercheur occidental S. Toulmin, par exemple, transfère le modèle disciplinaire de l’évolution de la science qu’il a développé à une description du développement historique de la technologie. Seulement dans ce cas on ne parle plus de facteurs modifiant la population de théories ou de concepts, mais d'évolution des instructions, des projets, des méthodes pratiques, des techniques de fabrication, etc. À l’instar du développement de la science, une nouvelle idée technologique conduit souvent à l’émergence d’une discipline technique entièrement nouvelle. La technologie se développe grâce à la sélection d'innovations parmi l'ensemble des options techniques possibles.

    Le progrès scientifique et technologique et ses conséquences.

Le progrès scientifique et technologique est un processus de mise à jour constante de tous les éléments de reproduction, dont la place principale appartient à la mise à jour des équipements et de la technologie. Ce processus est aussi éternel et constant que le travail de la pensée humaine, conçu pour faciliter et réduire les coûts du travail physique et mental pour atteindre résultat final dans l'activité de travail. « Le progrès scientifique et technologique est une transformation radicale des forces productives basée sur l'utilisation de nouveaux principes scientifiques dans la production matérielle, la transition vers une étape qualitativement nouvelle dans le développement de la production mécanique à grande échelle, la transformation de la science en un processus productif direct. force de la société. La forme moderne du progrès scientifique et technologique agit comme un processus de développement et de mise en œuvre d'innovations"

Le développement de la technologie, à partir de la Renaissance, est étroitement lié au développement de la science. En fusionnant, deux forces intellectuelles et créatrices ont formé un processus social assez stable, caractérisé par des sauts qualitatifs sous la forme de révolutions scientifiques et technologiques. Si la révolution scientifique copernicienne et la révolution industrielle, technique et technologique étaient encore séparées dans le temps, alors les révolutions ultérieures furent synchrones (électrique, nucléaire, psychologique, biologique, informatique, génétique). Dès qu'une révolution scientifique et technologique se produit, elle entre immédiatement dans la phase de développement technologique de ses conséquences. Même dans Le Capital, K. Marx écrivait que différentes attitudes se formaient à l'égard de ces processus. Elle est causée par les caractéristiques sociales et de classe de la société. Ainsi, pour le prolétariat, la mécanisation s’est soldée par une perte d’emplois. Ainsi, dans les entreprises capitalistes, il y a eu des cas de pannes de machines causées par ceux dont elles menaçaient de prendre la place. La réduction des emplois dans le secteur manufacturier devient l'un des principaux problèmes. Même si les travailleurs restent dans les entreprises, ils sont constamment tenus de se recycler, d'améliorer leurs compétences et d'assumer des responsabilités dans des conditions de concurrence pour l'emploi. Selon A. Toffler, tout cela nécessite que le salarié fasse bien sens développé mobilité professionnelle. Si cela est absent, alors il peut y avoir un futuroshk (peur de l'avenir), un conservatisme excessif et une augmentation de l'agressivité et des conflits dans la société. L'ampleur de la révolution informatique, qui a entraîné l'automatisation et la robotisation de la production industrielle, est véritablement énorme. Depuis agriculture et l'industrie, des millions de personnes ont été libérées. Pour l’instant, ils seront demandés dans le secteur des services, mais celui-ci est également technologiquement avancé, ce qui rend le problème de l’emploi plus urgent. Des mécanismes de protection sociale des travailleurs sont développés en conséquence. Ces fonctions sont assumées par un État à vocation sociale, car il s'intéresse avant tout à la stabilité des systèmes nationaux de vie des personnes et, en premier lieu, des superpuissances dotées d'armes nucléaires. La technologie entraîne des changements non seulement dans le système des activités de production, mais aussi dans la structure société civile. Ainsi, J. Ortega y Gasset constate l'émergence d'un nouveau monde culturel et humain. Le développement de la technologie des machines après la révolution industrielle a conduit à l'émergence de grandes industries et à la concentration de la population dans les villes (urbanisation), ainsi qu'au mouvement de millions de personnes d'un continent à l'autre (migration). La réinstallation a eu un impact particulièrement négatif sur les habitants des zones rurales qui sont devenus des citadins. La plupart d’entre eux sont devenus des lumpen, privés des traditions originales qui régissaient leur vie. Les gens qui se sont retrouvés dans le monde technogénique ont commencé à percevoir le matériel et valeurs artistiques comme quelque chose qui va de soi. En raison de l'accessibilité de la culture, son véritable sens n'a pas été formé. Il y avait une volonté de l’acquérir rapidement à tout prix et par tous les moyens. Le nihilisme et les idéologies éloignées de la vie réelle sont devenus les compagnons constants de la masse déshumanisée des gens. En conséquence, la technologie a créé une profonde contradiction entre ceux qui créent réellement la civilisation et ceux qui souhaitent uniquement utiliser ses produits. Une masse de personnes culturellement dégradées se retrouve facilement impliquée dans une atmosphère de formation de foule et de culture d’aspirations basses. Les conséquences sociales provoquées par la technologie sont aggravées par le fait qu’elles coïncident avec l’ère du nihilisme total et de la dévalorisation de l’expérience humaine. Ainsi, la religion, qui remplit pendant des siècles sa fonction régulatrice, devint un objet de persécution et de destruction. À cet égard, nous rappelons les paroles de F. Nietzsche selon lesquelles Dieu est mort et nous l'avons tué. La conséquence la plus importante du développement scientifique et technologique a été l’exacerbation des problèmes au sein de nombreux éléments de la structure sociale de la société. La famille a été confrontée à un nouveau débat sur le statut social des hommes et des femmes dans la culture. Des alternatives modernes au patriarcat et au matriarcat sont recherchées. La migration a donné à la famille un caractère interracial, interreligieux et interethnique. La structure de classe de la société, même dans le cadre du concept formationnel, a subi des changements quantitatifs importants. La part des classes traditionnelles – le prolétariat et les paysans – a considérablement diminué dans la population totale en âge de travailler. La dynamique qualitative indique également des changements - principalement dans le sens d'une augmentation du niveau d'éducation et des qualifications professionnelles des travailleurs. Au sein de l’intelligentsia, la proportion de fonctionnaires, d’ingénieurs, d’économistes, d’avocats, de médecins et de travailleurs sociaux a tendance à augmenter. Sous l’influence des flux migratoires, les nations deviennent de plus en plus multiethniques. Ces processus s'accompagnent de contradictions et de conflits. Le plus grand danger pour la civilisation technogénique est le séparatisme ethnique, car il crée des obstacles aux processus de mondialisation et d'intégration. Et le niveau de technologie moderne est tel qu'il implique l'unification de régions entières dans le cadre de projets distincts. La concentration de l'activité dans les centres les plus optimaux du monde a conduit à la formation d'immenses métropoles techniques comptant plus de 10 millions d'habitants. Dans ces pays, l'humanité est confrontée à des problèmes qualitativement nouveaux liés à la sécurité et aux moyens de subsistance de la population. Toute erreur dans l'évaluation des changements qui s'opèrent dans une société technogénique provoque des cataclysmes. Ainsi, les représentants de l'école néo-marxiste de Francfort, T. Adorno et G. Marcuse, ont eu l'imprudence d'affirmer que la fonction révolutionnaire des prolétaires classiques était assumée par des éléments déclassés et des étudiants. Et en 1968, la France a été secouée par de puissants troubles étudiants, qui ont entraîné d'importantes pertes matérielles, ainsi que des tragédies personnelles et une crise de la vision du monde. Les groupes d’âge, principalement les jeunes, ont été influencés par la technologie via l’informatique et les moyens audiovisuels. Limites d'âge l’accès à l’information s’est avéré flou. Et cela signifie le risque de l’émergence de diverses perceptions inadéquates, se transformant en une grande variété de sous-cultures et de contre-cultures. Les partisans du déterminisme technologique partent du rôle décisif de la technologie dans le développement des structures socio-économiques et socioculturelles. Originaire des années 20. XXe siècle en relation avec le développement rapide de la science et de la technologie, cette attitude s'est reflétée dans le concept de technocratisme, qui justifie la nécessité et l'inévitabilité du rôle croissant de l'intelligentsia technique dans la société (Veblen), dans la théorie des étapes de croissance (Rostow ), dans les concepts de société industrielle (Aron, Galbraith) et post-industrielle ( Bell, Fourastier), technotronique (Z. Brzezinski), de l'information (E. Masuda), de « Troisième vague » (Toffler). Les changements majeurs dans la technologie et le système de production technologique sont considérés dans le cadre de ces approches comme les principaux déterminants des changements socio-économiques et autres dans la société. On pense que le développement de la technologie est guidé par des critères universels tels que l'efficacité, l'économie, la cohérence et la fiabilité, qui déterminent la nature des innovations techniques. Cependant, comme le notent à juste titre les critiques du concept de déterminisme technologique, même une planification super-rationnelle du progrès technologique, lorsqu'elle est isolée des valeurs humanistes, donne inévitablement naissance à des fondements irrationnels-négatifs et destructeurs. existence humaine, conséquences. Cela détermine la formation de programmes anti-techniques alternatifs dans les conditions modernes. Quelle est l’essence des concepts alternatifs au déterminisme technologique ? Leur signification philosophique réside avant tout dans l'élargissement du spectre d'analyse du phénomène technologique, en l'immergeant dans le contexte de l'économie, de la sociologie, de la psychologie sociale, de l'anthropologie, ainsi que de la théorie philosophique des valeurs, qui créeront les conditions préalables pour construire un programme holistique pour l'étude de la technologie qui n'entre pas en conflit avec les stratégies de vie et les perspectives de l'humanité (G. Ropol, S. Carpenter). Le progrès technologique est déterminé et mesuré non seulement par les idées techniques et leur mise en œuvre, mais également par des paramètres sociopolitiques, économiques, environnementaux et moraux-axiologiques. Marcuse, Adorno, Horkheimer et d’autres attirent l’attention sur les conséquences négatives d’un enthousiasme excessif pour le pouvoir de la technologie. La technologie transforme les moyens en fins, standardise le comportement, les intérêts et les inclinations des gens, transformant une personne en un objet de manipulation non spirituelle (Ellul). Heidegger voyait la cause des menaces désastreuses résultant de l'action des machines et de toutes sortes d'appareils dans l'essence même de l'homme, qui perçoit le monde exclusivement comme un matériau pour satisfaire ses besoins, et la technologie comme un outil qui lui permet d'éliminer le voiles de secrets naturels. Pour sauver une personne, une réorientation de la pensée humaine est nécessaire. D'autres chercheurs estiment qu'une analyse différenciée des forces et des faiblesses de la « vision du monde technologique » (F. Rain, H. Schelsky), de « l'humanisation de la technologie » (J. Waynestein), ainsi que des actions rationnelles, et pas seulement des efforts de l'esprit, est nécessaire, en raison du caractère irréversible et inévitable du développement technologique. Dans les années 60-70. XXe siècle civilisation occidentaleÀ la suite de la restructuration structurelle de l’économie, qui a propulsé de nouvelles industries flexibles et à forte intensité de connaissances aux premières positions au lieu de l’industrie lourde, l’économie entre désormais dans la phase postindustrielle. Cette période est associée à la création d'une économie de services extensive, à la domination d'une couche de spécialistes scientifiques et techniques, au rôle central des connaissances théoriques dans le développement de l'économie, au développement rapide de « l'industrie de la connaissance », de l'informatisation et de la l’émergence de vastes systèmes d’information. L'une des principales places est la discussion sur les conséquences sociales du progrès scientifique et technologique dans le domaine de la philosophie de la technologie. La critique anti-technique sous une forme philosophique romantique a enregistré les conséquences négatives d'un technicisme non spirituel, la limitation de la mesure des progrès de la technologie uniquement par des idées techniques et la nécessité de la compléter par des paramètres sociaux, politiques, économiques, des programmes humanitaires-axiologiques complexes, sans quoi il est impossible de surmonter l’aliénation de l’homme, en le transformant en une construction de systèmes de production technique. Un tel paradigme critique par rapport au progrès technologique a révélé des contradictions alarmantes et des conséquences dangereuses du développement technologique de la société, menaçant une destruction irréversible de l'environnement socio-naturel et, en même temps, a initié la formation de programmes axiologiques et humanistes visant à réorienter la « vision technologique du monde » et la pensée, en reconnaissant la nécessité de stratégies et d'actions rationnelles dans des conditions d'irréversibilité et d'inévitabilité du développement technique, la possibilité de développer une technologie qui ne menace pas les perspectives de vie de l'humanité. Conformément à cela, les problèmes des résultats globaux du développement technogénique affectant les intérêts de toute l'humanité sont mis à jour (menace pour la paix en lien avec le développement équipement militaire; conséquences de la crise environnementale, etc.) ; problèmes de contrôle rationnel de la technologie, limitant sa croissance quantitative à des limites raisonnables ; problèmes de construction d'un système de valeurs adapté à « l'ère technotronique » et combinant les principes intellectuels, moraux et éthiques chez une personne, en tenant compte de la nécessité d'un dialogue entre la culture scientifique, technique, philosophique et humanitaire.

Image scientifique du monde(Stepin) est un système holistique d'idées sur le monde, ses caractéristiques et modèles structurels, développé à la suite de la systématisation et de la synthèse des réalisations fondamentales de la science. Ce forme spéciale connaissances scientifiques et théoriques, se développant au cours du processus d'évolution historique de la science. Image scientifique du monde est une composante importante de la vision scientifique du monde, mais ne peut s’y réduire. En plus des connaissances, une vision du monde contient des croyances, des valeurs, des idéaux et des normes d'activité, des émotions liées à l'objet d'étude, etc.

La structure de l'image scientifique du monde :

1 ) niveau conceptuel (catégories philosophiques, principes), qui sont précisés dans image scientifique du mondeà travers un système de concepts scientifiques généraux, à travers les concepts fondamentaux des sciences individuelles.

2 ) composante sensorielle-figurative – représentations visuelles et images. Les images agissent comme un système et grâce à cela, leur compréhension est assurée. image scientifique du monde un large éventail de scientifiques, quelle que soit leur spécialisation.

Formes de l'image scientifique du monde :

1) par généralité n image scientifique du monde apparaît sous les formes suivantes :

Image scientifique générale du monde, c'est-à-dire une forme de systématisation des connaissances développées en sciences naturelles et en connaissances sociales et humanitaires.

L'image scientifique naturelle du monde (nature) et l'image scientifique de la réalité socio-historique (image de la société). Chacune de ces images constitue un aspect relativement indépendant de l’image scientifique générale du monde.

Une image particulière du monde des sciences individuelles (ontologie disciplinaire) (par exemple : le monde physique, monde biologique). Chacun de peintures spéciales le monde peut être présenté comme un ensemble de certaines constructions théoriques, un modèle figuratif de la zone étudiée.

2) du point de vue de l'affiliation historique et culturelle : NCM agit principalement comme une image scientifique naturelle du monde, donc dans sa séquence elle ressemble à ceci : image mécanique du monde, image électrodynamique du monde, image relationnelle quantique de le monde, image synergique du monde. Les trois premiers sont basés sur l’image scientifique naturelle du monde.

Fonctions de l'image scientifique du monde :

1) systématisation des connaissances ;

2) assurer le lien avec l'expérience et la coupe de l'époque correspondante ;

3) être un programme de recherche visant à produire des résultats empiriques et problèmes théoriques, ainsi que le choix des moyens pour les résoudre.

Fondements opérationnels du tableau scientifique du monde :

Des images spéciales du monde servent de matériau à partir duquel se forment d'abord des images de la nature et de la société, puis des images scientifiques générales du monde.

Tout d'abord, la transition est effectuée, c'est-à-dire passage des niveaux disciplinaires aux niveaux interdisciplinaires de systématisation scientifique. Une telle transition s'effectue non pas comme une simple sommation d'images particulières du monde, mais comme leur synthèse complexe, dans le processus de laquelle le rôle principal est joué par des images de la réalité des principaux à l'heure actuelle disciplines scientifiques. Dans le cadre conceptuel de ces disciplines, des concepts scientifiques généraux sont identifiés, qui deviennent le noyau d'abord de l'image scientifique naturelle et socio-historique, puis de l'image scientifique générale du monde. Autour de ce noyau s'organisent les concepts fondamentaux des sciences spéciales, inclus dans l'image du monde de deuxième niveau, puis dans l'image scientifique générale. L'image du monde qui en résulte non seulement systématise les connaissances sur la nature et la société, mais se présente également comme un programme de recherche qui donne une vision des liens entre les sujets de diverses sciences et détermine la stratégie de transfert de stratégies d'une science à l'autre.

Les postulats de l’image scientifique du monde dépendent des attitudes de l’époque.

Dilthey a inclus dans l'image du monde : le but, la vie, l'homme, le sujet => l'image du monde repose sur l'homme.

1) aristotélicien(VI-IV siècles avant JC) à la suite de cette révolution scientifique, la science elle-même est née, la science a été séparée des autres formes de connaissance et d'exploration du monde, certaines normes et échantillons de connaissances scientifiques ont été créés. Cette révolution se reflète le plus pleinement dans les œuvres d'Aristote. Il a créé la logique formelle, c'est-à-dire la doctrine de la preuve, principal outil de déduction et de systématisation des connaissances, a été développée de manière catégorique appareil conceptuel. Il a établi une sorte de canon pour l'organisation recherche scientifique(histoire de la question, énoncé du problème, arguments pour et contre, justification de la décision), savoir différencié lui-même, séparant les sciences de la nature des mathématiques et de la métaphysique

2) Révolution scientifique newtonienne(XVI-XVIII siècles). Son point de départ est considéré comme le passage d'un modèle géocentrique du monde à un modèle héliocentrique ; cette transition a été provoquée par une série de découvertes associées aux noms de N. Copernic, G. Galilée, I. Kepler, R. Descartes. , I. Newton, a résumé leurs recherches et formulé les principes de base d'une nouvelle image scientifique du monde en général. Principaux changements :

Les sciences naturelles classiques parlaient le langage des mathématiques et étaient capables d'identifier des phénomènes strictement objectifs. caractéristiques quantitatives corps terrestres (forme, taille, masse, mouvement) et les exprime selon des lois mathématiques strictes.

La science des temps modernes a trouvé un puissant soutien dans les méthodes de recherche expérimentale de phénomènes dans des conditions strictement contrôlées.

Les sciences naturelles de cette époque abandonnèrent le concept d'un cosmos harmonieux, complet et délibérément organisé ; selon elles, l'Univers est infini et uni uniquement par l'action de lois identiques.

La mécanique est devenue l’élément dominant des sciences naturelles classiques ; toutes les considérations basées sur les concepts de valeur, de perfection et d’établissement d’objectifs ont été exclues de la sphère de la recherche scientifique.

L'activité cognitive impliquait une opposition claire entre le sujet et l'objet de recherche. Le résultat de tous ces changements fut une image scientifique mécaniste du monde basée sur les sciences naturelles mathématiques expérimentales.

3) La révolution d'Einstein(tournant des XIX-XX siècles). Elle a été provoquée par une série de découvertes (la découverte structure complexe atome, phénomène de radioactivité, caractère discret du rayonnement électromagnétique, etc.). En conséquence, la prémisse la plus importante de l'image mécaniste du monde a été ébranlée : la conviction qu'avec l'aide de forces simples agissant entre des objets immuables, on peut expliquer tous les phénomènes naturels.

Image scientifique du monde (SPM) - système idées générales sur les propriétés et les lois fondamentales de l'univers, survenant et se développant sur la base de la généralisation et de la synthèse des principes de base faits scientifiques, concepts et principes.

NCM se compose de deux éléments permanents :

  • composante conceptuelle comprend des principes et catégories philosophiques (par exemple, le principe de déterminisme, les concepts de matière, de mouvement, d'espace, de temps, etc.), des principes et concepts scientifiques généraux (la loi de conservation et de transformation de l'énergie, le principe de relativité, le notions de masse, de charge, de corps noir, etc.)
  • composante sensorielle-figurative - est un ensemble de représentations visuelles de phénomènes et de processus du monde sous forme de modèles d'objets connaissances scientifiques, leurs images, descriptions, etc. Il est nécessaire de distinguer NCM de l'image du monde basée sur la synthèse des idées humaines générales sur le monde, développées par différentes sphères de la culture

La principale différence entre NCM et pré-scientifique (philosophie naturelle) et extra-scientifique (par exemple religieux) est qu'il est créé sur la base d'un certain théorie scientifique(ou théories) et les principes et catégories fondamentaux de la philosophie.

À mesure que la science se développe, elle produit plusieurs variétés de connaissances scientifiques, qui diffèrent par le niveau de généralisation du système de connaissances scientifiques. : tableau scientifique général du monde (ou simplement NCM), image du monde d'un certain domaine scientifique (image des sciences naturelles du monde), image du monde d'un complexe distinct de sciences (image physique, astronomique, biologique du monde, etc.).

Les idées sur les propriétés et les caractéristiques de la nature qui nous entoure naissent de la connaissance que, dans chaque période historique donnez-nous différentes sciences qui étudient divers processus et phénomènes naturels. Puisque la nature est quelque chose d'unifié et d'entier, puisque la connaissance à son sujet doit être holistique, c'est-à-dire représentent un certain système. Ce système de connaissances scientifiques sur la nature a longtemps été appelé sciences naturelles. Auparavant, les sciences naturelles englobaient toutes les connaissances relativement limitées connues sur la nature, mais dès la Renaissance, leurs branches et disciplines individuelles ont émergé et se sont isolées, et le processus de différenciation des connaissances scientifiques a commencé. Il est clair que toutes ces connaissances ne sont pas aussi importantes pour comprendre la nature qui nous entoure.

Pour souligner le caractère fondamental des connaissances fondamentales et les plus importantes sur la nature, les scientifiques ont introduit le concept d'image scientifique naturelle du monde, qui est comprise comme un système de principes et de lois les plus importants qui sous-tendent le monde qui nous entoure. Le terme « image du monde » lui-même indique que nous parlons de Il ne s’agit pas d’une partie ou d’un fragment de connaissance, mais d’un système complet. En règle générale, dans la formation d'une telle image, le plus important acquérir des concepts et des théories des branches les plus développées des sciences naturelles au cours d'une certaine période historique, qui sont présentées comme ses leaders. Il ne fait aucun doute que les sciences de pointe laissent leur marque sur les idées et la vision scientifique du monde des scientifiques de l’époque correspondante.


Mais cela ne veut pas dire que les autres sciences ne participent pas à la formation d'une image de la nature. En fait, il résulte de la synthèse des découvertes fondamentales et des résultats de recherche de toutes les branches et disciplines des sciences naturelles.

Photo existante la nature, représentée par les sciences naturelles, a à son tour un impact sur d’autres branches de la science, notamment sociales et humanitaires. Cet impact s'exprime dans la diffusion de concepts, de normes et de critères relatifs au caractère scientifique des sciences naturelles à d'autres branches de la connaissance scientifique. En règle générale, ce sont les concepts et les méthodes des sciences naturelles et l'image scientifique naturelle du monde dans son ensemble qui déterminent en grande partie le climat scientifique de la science. En étroite interaction avec le développement des sciences naturelles depuis le XVIe siècle. Les mathématiques se sont développées, ce qui a créé des méthodes mathématiques aussi puissantes pour les sciences naturelles que le calcul différentiel et intégral.

Cependant, sans prendre en compte les résultats de la recherche en sciences économiques, sociales et humaines, notre connaissance du monde dans son ensemble sera évidemment incomplète et limitée. Il faut donc distinguer photo des sciences naturelles du monde, qui est formé à partir des réalisations et des résultats de la connaissance des sciences naturelles, et de l'image du monde dans son ensemble, qui comprend comme complément nécessaire notions essentielles et les principes des sciences sociales.

Notre cours est consacré aux concepts des sciences naturelles modernes et, par conséquent, nous considérerons l'image scientifique de la nature telle qu'elle s'est formée historiquement au cours du processus de développement des sciences naturelles. Cependant, même avant l'avènement des idées scientifiques sur la nature, les gens réfléchissaient au monde qui les entourait, à sa structure et à son origine. Ces idées sont initialement apparues sous forme de mythes et ont été transmises d’une génération à l’autre. Selon les mythes les plus anciens, l’ensemble du monde visible, ordonné et organisé, que l’on appelait dans l’Antiquité le cosmos, provenait d’un monde désorganisé ou d’un chaos désordonné.

Dans la philosophie naturelle ancienne, en particulier chez Aristote (384-322 av. J.-C.), des vues similaires se reflétaient dans la division du monde en un « cosmos » céleste parfait, ce qui pour les Grecs de l'Antiquité signifiait tout ordre, organisation, perfection, cohérence et même ordre militaire. C’était précisément ce genre de perfection et d’organisation qui était attribué au monde céleste.

Avec l’avènement des sciences naturelles expérimentales et de l’astronomie scientifique à la Renaissance, l’incohérence évidente de ces idées est apparue. De nouveaux points de vue sur le monde qui nous entoure a commencé à être basé sur les résultats et les conclusions des sciences naturelles de l'époque correspondante et a donc commencé à être appelé l'image scientifique naturelle du monde.

UNIVERSITÉ SIBÉRIENNE DE COOPÉRATION DES CONSOMMATEURS

Test sur les concepts de la science moderne

Novossibirsk 2010

Introduction

1. Image mécanique du monde

2. Image électromagnétique du monde

3. Quantique – image de terrain du monde

Introduction

Le concept même d'« image scientifique du monde » est apparu dans les sciences naturelles et la philosophie à la fin du XIXe siècle, mais une analyse particulière et approfondie de son contenu a commencé à être menée dans les années 60 du XXe siècle. Et pourtant, une interprétation claire de ce concept n’a pas encore été obtenue. Le fait est que ce concept lui-même est quelque peu vague et occupe une position intermédiaire entre le reflet philosophique et scientifique des tendances dans le développement des connaissances scientifiques. Ainsi, il existe des images scientifiques générales du monde et des images du monde du point de vue de sciences individuelles, par exemple physiques, biologiques, ou du point de vue de toute méthode dominante, style de pensée - probabiliste-statistique, évolutionniste, systémique, synergique, etc. images du monde. Dans le même temps, l'explication suivante du concept d'image scientifique du monde peut être donnée. (NKM).

L’image scientifique du monde comprend les réalisations scientifiques les plus importantes qui créent une certaine compréhension du monde et de la place de l’homme dans celui-ci. Il n'inclut pas d'informations plus spécifiques sur les propriétés de divers systèmes naturels, sur les détails du processus cognitif lui-même. De plus, le NCM n’est pas une collection connaissances générales, mais représente un système holistique d’idées sur les propriétés générales, les sphères, les niveaux et les modèles de la nature, formant ainsi la vision du monde d’une personne.

Contrairement aux théories strictes, la NCM possède la clarté nécessaire et se caractérise par une combinaison de connaissances théoriques abstraites et d'images créées à l'aide de modèles. Les caractéristiques de diverses images du monde s'expriment dans leurs paradigmes inhérents. Le paradigme (grec – exemple, échantillon) est un ensemble de certains stéréotypes dans la compréhension des processus objectifs, ainsi que dans les manières de les connaître et de les interpréter.

Le NCM est une forme particulière de systématisation des connaissances, principalement sa généralisation qualitative, synthèse idéologique de diverses théories scientifiques.

1. Image mécanique du monde

Dans l'histoire des sciences, les images scientifiques du monde ne sont pas restées inchangées, mais se sont remplacées les unes les autres, nous pouvons donc parler de l'évolution des images scientifiques du monde. L’image physique du monde est créée par des mesures expérimentales et des observations fondamentales sur lesquelles se fondent des théories qui expliquent les faits et approfondissent notre compréhension de la nature. La physique est science expérimentale, par conséquent, elle ne peut pas atteindre des vérités absolues (comme la connaissance elle-même en général), puisque les expériences elles-mêmes sont imparfaites. Cela détermine le développement constant des concepts scientifiques.

Concepts de base et lois du MCM

Le MCM s'est formé sous l'influence d'idées matérialistes sur la matière et les formes de son existence. La formation même de l'image mécanique est à juste titre associée au nom Galilée Galilée, qui l'a utilisé pour la première fois pour étudier la nature méthode expérimentale ainsi que les mesures des grandeurs étudiées et le traitement mathématique ultérieur des résultats. Cette méthode était fondamentalement différente de la méthode philosophique naturelle existante, dans laquelle des a priori, c'est-à-dire des phénomènes naturels, étaient inventés. des schémas spéculatifs non liés à l'expérience et à l'observation ; des entités supplémentaires ont été introduites pour expliquer des phénomènes incompréhensibles.

Les lois du mouvement planétaire découvertes par Johannes Kepler indiquaient à leur tour qu'entre les mouvements de la Terre et corps célestes il n'y a pas de différence fondamentale, puisqu'ils obéissent tous à certaines lois naturelles.

Le cœur du MCM est la mécanique newtonienne (mécanique classique).

La formation de la mécanique classique et l'image mécanique du monde qui en découle s'est produite dans 2 directions :

1) généralisation des résultats obtenus précédemment et, surtout, des lois chute libre tél, découvert par Galilée, ainsi que les lois du mouvement planétaire formulées par Kepler ;

2) créer des méthodes d'analyse quantitative mouvement mécanique en général.

Dans la première moitié du XIXe siècle. avec mécanique théorique La mécanique appliquée (technique) se démarque également, ayant atteint grand succès dans la décision problèmes appliqués. Tout cela a conduit à l’idée de la toute-puissance de la mécanique et au désir de créer une théorie de la chaleur et de l’électricité également basée sur des concepts mécaniques.

Dans toute théorie physique, il existe de nombreux concepts, mais parmi eux, il y en a des fondamentaux dans lesquels la spécificité de cette théorie, sa base, se manifeste. Ces notions comprennent :

· matière,

· mouvement,

· espace,

· interaction

Chacun de ces concepts ne peut exister sans les quatre autres. Ensemble, ils reflètent l'unité du monde.

La MATIÈRE est une substance constituée de minuscules particules solides en mouvement, indivisibles - des atomes. C'est pourquoi les notions les plus importantes en mécanique, il y avait les notions de point matériel et de corps absolument rigide. Un point matériel est un corps dont les dimensions dans les conditions d'un problème donné peuvent être absolument négligées. solide- système points matériels, dont la distance reste toujours inchangée.

ESPACE. Newton a considéré deux types d'espace :

· relatif, auquel on se familiarise en mesurant les relations spatiales entre les corps ;

· l'absolu est un conteneur vide de corps, il n'est pas associé au temps et ses propriétés ne dépendent pas de la présence ou de l'absence d'objets matériels en lui. L'espace en mécanique newtonienne est

Tridimensionnel (la position de n'importe quel point peut être décrite par trois coordonnées),

Continu

Sans fin

Homogène (les propriétés de l'espace sont les mêmes en tout point),

Isotrope (les propriétés de l'espace ne dépendent pas de la direction).

TEMPS. Newton considérait deux types de temps, semblables à l'espace : relatif et absolu. Temps relatif les gens apprennent au cours du processus de mesures, et l'absolu (le temps vrai, mathématique) en lui-même et dans son essence, sans aucune relation avec quoi que ce soit d'extérieur, s'écoule uniformément et est autrement appelé durée. Le temps s'écoule dans une seule direction : du passé vers le futur.

MOUVEMENT. Le MCM ne reconnaissait que le mouvement mécanique, c'est-à-dire un changement de position du corps dans l'espace au fil du temps. On croyait que tout mouvement complexe pouvait être représenté comme une somme de mouvements spatiaux. Le mouvement de tout corps était expliqué sur la base des trois lois de Newton, en utilisant des concepts tels que la force et la masse.

INTERACTION. La physique moderne réduit toute la variété des interactions à 4 interactions fondamentales: fort, faible, électromagnétique et gravitationnel.

Il faut dire que dans mécanique classique La question de la nature des forces ne se posait en effet pas, ou plutôt n’avait pas de signification fondamentale. C'est juste que tous les phénomènes naturels étaient réduits aux trois lois de la mécanique et à la loi gravité universelle, à l’action des forces d’attraction et de répulsion.

Principes de base du MCM

Les principes les plus importants du MCM sont :

principe de relativité,

principe à longue portée

· principe de causalité.

Le principe de relativité de Galilée. Le principe de relativité de Galilée stipule que dans tous les référentiels inertiels, tout phénomènes mécaniques procédez de la même manière. Système de référence inertiel (IRS) - un système de référence dans lequel la loi de l'inertie est valable : tout corps sur lequel aucune action n'est exercée forces extérieures ou l'action de ces forces est compensée, est dans un état de repos ou de mouvement rectiligne uniforme.

Le principe de l'action à longue portée. Dans MCM, il a été accepté que l'interaction se transmet instantanément et que le support intermédiaire ne participe pas à la transmission de l'interaction. Cette position s'appelait le principe de l'action à longue portée.

Le principe de causalité. Il n’y a pas de phénomène sans cause ; il est toujours possible (en principe) d’identifier la cause et l’effet. La cause et l’effet sont interconnectés et s’influencent mutuellement. L’effet d’une cause peut être la cause d’un autre effet. Cette idée a été développée par le mathématicien Laplace. Il croyait que toutes les connexions entre les phénomènes s'effectuaient sur la base de lois sans ambiguïté. Cette doctrine de la conditionnalité d'un phénomène par un autre, de leur connexion naturelle sans ambiguïté, est entrée en physique sous le nom de ce qu'on appelle le déterminisme de Laplace (prédétermination). Les connexions essentielles et sans ambiguïté entre les phénomènes sont exprimées par des lois physiques.

2. Image électromagnétique du monde

Basique lois expérimentalesélectromagnétisme.

Les phénomènes électriques et magnétiques sont connus de l’humanité depuis l’Antiquité. On a découvert par la suite qu’il existe deux types d’électricité : positive et négative.

Quant au magnétisme, les propriétés de certains corps à attirer d’autres corps étaient connues dans l’Antiquité, on les appelait aimants. La propriété d'un aimant libre s'est établie dans le sens « Nord-Sud » dès le IIe siècle. Colombie-Britannique utilisé dans Chine ancienne en voyage.

Le XVIIIe siècle, marqué par la formation du MKM, marque en réalité le début et recherche systématique phénomènes électriques. Il a donc été établi que des charges similaires se repoussent, et l'appareil le plus simple est apparu : un électroscope. En 1759, le naturaliste anglais R. Simmer concluait qu'à l'état normal, tout corps contient un nombre égal de charges opposées qui se neutralisent mutuellement. Lors de l'électrification, leur redistribution se produit.

À la fin du XIXe et au début du XXe siècle, il a été établi expérimentalement que charge électrique est constitué d'un entier charges élémentaires e = 1,6 × 10-19 Cl. C'est la plus petite charge existant dans la nature. En 1897, J. Thomson découvre la plus petite particule stable, porteuse d'une charge élémentaire négative (électron).

1. Introduction
2. Caractéristiques de l'image scientifique du monde
3. Principes de base pour construire une image scientifique du monde
4. Contours généraux de l'image scientifique moderne du monde
5. Conclusion
6. Références

Introduction

La connaissance des choses et des processus individuels est impossible sans la connaissance simultanée de l'universel, et celui-ci, à son tour, n'est connu qu'à travers le premier. Cela devrait être clair pour tout esprit instruit aujourd’hui. De la même manière, le tout n'est compréhensible que dans l'unité organique avec ses parties, et la partie ne peut être comprise que dans le cadre du tout. Et toute loi « particulière » découverte par nous – si elle est véritablement une loi et non une règle empirique – est une manifestation concrète de l’universalité. Il n’existe pas de science dont le sujet serait exclusivement l’universel sans la connaissance de l’individuel, tout comme une science qui se limite à la seule connaissance du particulier est impossible.
La connexion universelle des phénomènes est le modèle le plus général de l'existence du monde, qui est le résultat et la manifestation de l'interaction universelle de tous les objets et phénomènes et s'incarne comme une réflexion scientifique dans l'unité et l'interconnexion des sciences. Il exprime l'unité interne de tous les éléments de la structure et des propriétés de tout système intégral, ainsi que la variété infinie des relations d'un système donné avec d'autres systèmes ou phénomènes qui l'entourent. Sans comprendre le principe de connexion universelle, il ne peut y avoir de véritable connaissance. La conscience de l'idée universelle de l'unité de tous les êtres vivants avec l'univers entier fait partie de la science, même s'il y a plus d'un demi-siècle, dans ses conférences données à la Sorbonne, V.I. Vernadsky a noté qu'aucun organisme vivant ne se trouve dans un état libre sur Terre, mais il est inextricablement lié à l'environnement matériel et énergétique. "Au cours de notre siècle, la biosphère acquiert une compréhension complètement nouvelle. Elle apparaît comme un phénomène planétaire de nature cosmique."
La vision du monde des sciences naturelles (NSWW) est un système de connaissances sur la nature qui se forme dans l'esprit des étudiants en train d'étudier des matières en sciences naturelles et dans l'activité mentale nécessaire à la création de ce système.
Le concept d'« image du monde » est l'un des concepts fondamentaux de la philosophie et des sciences naturelles et exprime dans son intégralité des idées scientifiques générales sur la réalité environnante. Le concept d'« image du monde » reflète le monde dans son ensemble comme un système unique, c'est-à-dire un « tout connecté », dont la connaissance présuppose « la connaissance de toute la nature et de l'histoire... » (Marx K., Engels F., ouvrages complets, 2e éd. volume 20, p.630).
Caractéristiques de l'image scientifique du monde
L'image scientifique du monde est l'une des images possibles du monde, elle a donc quelque chose en commun avec toutes les autres images du monde - mythologiques, religieuses, philosophiques - et quelque chose de spécial qui distingue l'image scientifique du monde de la diversité de toutes les autres images du monde. Comme toutes les autres images du monde, l'image scientifique du monde contient certaines idées sur la structure de l'espace et du temps, les objets et leurs interactions, les lois et la place de l'homme dans le monde. C’est quelque chose de commun qui est présent dans toutes les images du monde. La principale chose qui distingue l'image scientifique du monde de toutes les autres images du monde est, bien sûr, la « nature scientifique » de cette image du monde. Par conséquent, afin de comprendre la particularité de l'image scientifique du monde. , il est nécessaire de comprendre la particularité de la science en tant que type particulier activité humaine. Depuis environ un siècle maintenant, il existe une direction particulière en philosophie appelée « philosophie et méthodologie des sciences ». Cette direction tente de comprendre ce qu'est la science ? Au début, les philosophes pensaient que la science était fondamentalement différente des types de connaissances non scientifiques. , et la connaissance scientifique avait une caractéristique telle qu'un « critère de démarcation ». Cela montre que la science commence derrière elle, et que tout ce qui se trouve de l'autre côté est quelque chose de non scientifique. Différents philosophes ont proposé différents signes comme « critère de démarcation ». Par exemple, certains ont dit que l'essentiel en science est l'utilisation d'une méthode spéciale de pensée appelée « induction », c'est-à-dire passage des faits particuliers à leurs généralisations dans jugements généraux. D'autres ont dit que l'essentiel de la science est l'utilisation des mathématiques, tandis que d'autres ont soutenu que seule la science utilise des jugements dont on peut tirer des conséquences et que ces conséquences peuvent être vérifiées ou réfutées par l'expérience. Toutes les caractéristiques proposées, à un degré ou à un autre, se sont révélées appartenir à des types de connaissances non scientifiques. Ensuite, les philosophes ont décidé que la science n'était pas très différente de la non-science, mais qu'elle se développait progressivement à partir de types de connaissances non scientifiques, renforçant certaines caractéristiques et affaiblissant d'autres. La caractéristique principale de la science n'est pas seulement une chose, mais tout un système de propriétés qui, dans une combinaison et des proportions particulières, sont inhérentes spécifiquement à la connaissance scientifique, bien que chaque élément individuel de ce système puisse être trouvé bien au-delà des frontières de la science. Tous ces signes qui étaient auparavant proposés comme « critère de démarcation », ils sont tous peu à peu vrais, mais maintenant ils doivent être considérés ensemble, comme partis individuels. L'un des plus gros problèmes la pensée humaine est un problème de connexion des faits et des idées. Il y a, d'une part, ce que nous observons à travers nos sens - c'est ce qu'on appelle la « cognition sensorielle », et il y a les pensées, les idées, la logique - c'est le domaine " connaissance rationnelle" Habituellement, soit les gens se limitent aux connaissances sensorielles, soit ils s'éloignent des faits et des observations et utilisent des hypothèses éloignées de la vie. La première caractéristique de la science est la combinaison de connaissances sensorielles et rationnelles. En science, il ne suffit pas d’inventer des hypothèses, mais uniquement des hypothèses qui pourraient être soit confirmées, soit réfutées par des faits. D'un autre côté, les faits eux-mêmes doivent être objectifs, c'est-à-dire vérifié par de nombreuses personnes et exprimant certains modèles et modèles théoriques. En rapprochant les faits de la théorie, la science considère les faits comme des conséquences des théories (« déduction »), en rapprochant la théorie des faits, la science utilise des théories obtenues sur la base de la généralisation (induction) des faits. L'unité des méthodes inductives et déductives dans. la connaissance accroît le caractère scientifique de cette connaissance, rapprochant les formes de connaissance rationnelles et sensorielles. L'un des signes de la connaissance scientifique est son utilisation. méthodes mathématiques. Les mathématiques sont la science des structures. Une structure est par exemple un ensemble nombres naturels avec les opérations et les relations qui s'y rapportent, un ensemble de vecteurs dans un espace tridimensionnel. Les mathématiques explorent diverses structures et construit des théories sur ces structures - introduit les concepts et leurs définitions, les axiomes, prouve les théorèmes. Les théories sur les structures sont construites à l'aide de langages symboliques spéciaux et d'un raisonnement logique rigoureux (preuves logiques). Les structures dans leur forme pure ne peuvent être observées nulle part par nos sens, par exemple, les nombres « deux » ou « trois » ne peuvent être vus nulle part, nous voyons toujours deux ou trois objets spécifiques, par exemple deux pommes, trois arbres, etc. . En même temps, on ne peut pas dire que le nombre « deux » n'a rien à voir avec deux pommes. Par exemple, si nous ajoutons le nombre « trois » au nombre « deux », nous obtenons le nombre « cinq » - et tout cela ne se produit jusqu'à présent que dans le cadre d'une structure mathématique pure. Mais il s’avère que si vous ajoutez trois pommes à deux pommes, vous obtenez également cinq pommes. Ainsi, le nombre de pommes est soumis aux mêmes lois que les nombres en général : ce sont les lois de la structure. Ainsi, le nombre de pommes n'est, dans une certaine mesure, qu'un nombre, et en ce sens on peut étudier différents numéros matières, numéro d'étude en général. Une structure mathématique peut se réaliser dans le monde sensoriel. La mise en œuvre de la structure est déjà, pour ainsi dire, cas particulier structures, lorsque les éléments de la structure sont donnés sous la forme d'objets observables spécifiques. Mais les opérations, propriétés et relations restent les mêmes dans ce cas que dans la structure mathématique. Ainsi, la science a découvert que le monde qui nous entoure peut être représenté comme la réalisation de nombreuses structures mathématiques différentes, et la prochaine caractéristique de la science est l'étude du monde qui nous entoure comme la réalisation de structures mathématiques. Ceci explique la grande importance des mathématiques pour la transformation des connaissances ordinaires en science. La vraie science est impensable sans une expérience scientifique, mais comprendre de quoi il s'agit expérience scientifique pas si simple. Commençons par un exemple ici. Jusqu'à la découverte par Galilée de la loi de l'inertie, la mécanique d'Aristote dominait la physique. Le grand philosophe grec Aristote croyait que la force est proportionnelle non pas à l'accélération, comme Newton le suggéra plus tard, mais à la vitesse, c'est-à-dire F = mv. Par exemple, si un cheval traîne une charrette avec une charge, tant que le cheval applique une force, la charrette bouge, c'est-à-dire la vitesse n'est pas nulle. Si le cheval arrête de tirer la charrette, alors la charrette s'arrêtera - sa vitesse sera nulle. Nous savons maintenant qu'en fait, il n'y a pas une, mais deux forces présentes ici : la force avec laquelle le cheval tire la charrette et la force de friction, mais Aristote pensait différemment. Galilée, réfléchissant au problème du mouvement mécanique, a construit l'expérience de pensée suivante. Galilée a imaginé ce qui arriverait à un corps qui aurait reçu une poussée et se déplacerait sur une surface lisse. Après avoir reçu une poussée, le corps continue de bouger pendant un certain temps puis s'arrête. Si la surface devient de plus en plus lisse, alors, à partir de la même poussée, le corps parcourra une distance croissante avant de s'arrêter. Et puis Galilée, ayant imaginé une séquence de telles situations dans lesquelles le corps se déplace sur une surface de plus en plus lisse, se déplace jusqu'à la limite - dans le cas d'une telle situation idéale où la surface est déjà absolument lisse. Prenant la tendance à se déplacer de plus en plus loin après une poussée jusqu'à la limite, Galilée affirme désormais que sur une surface idéalement lisse, un corps ne s'arrêtera jamais après une poussée. Mais après la poussée, la force n'agit pas sur le corps, donc le corps bougera indéfiniment, la vitesse n'est pas nulle dans ce cas, et la force sera nulle. Ainsi, la force n'est pas proportionnelle à la vitesse, comme le croyait Aristote, et un mouvement sans force est possible, que nous appelons aujourd'hui uniforme. mouvement rectiligne. En résumant cet exemple, nous pouvons tirer la conclusion suivante. L'expérience implique une certaine transformation situation réelle, et dans cette transformation, la situation réelle se rapproche, à un degré ou à un autre, d'une certaine limite idéale. Il est important que dans une expérience, il soit possible de parvenir à une idéalisation de plus en plus grande de la situation réelle, en construisant pour ainsi dire une séquence limite de situations expérimentales tendant vers une certaine limite idéale. L'expérience joue dans la connaissance scientifique le rôle d'une sorte de « sélecteur » d'états limites par rapport aux états réels situations naturelles. Ces limites sont généralement appelées « modèles » et sont des implémentations de certaines structures mathématiques. Ainsi, une autre caractéristique de la science est l'utilisation de telles structures obtenues comme limites de situations expérimentales. Ainsi, l'image scientifique du monde suppose que le monde qui l'entoure. nous se compose de deux commencements : les formes et la matière. Les formes sont simplement un autre nom pour diverses structures mathématiques qui constituent, pour ainsi dire, un squelette naturel et logique de tous les processus et phénomènes du monde. Ainsi, la base de tout est constituée de formes structurelles. s'expriment en nombres, en opérations et en relations. Ce type de philosophie est proche de la philosophie du « pythagore », du nom du grand philosophe grec Pythagore, qui enseignait que les structures numériques sont à la base de tout. L’image scientifique du monde suppose en outre que les formes-structures sont revêtues de matière et se réalisent ainsi sous la forme d’une variété infinie de phénomènes et de processus sensoriels. Les structures ne se contentent pas de se répéter dans le monde sensoriel-matériel, elles sont largement transformées, affaiblies et mélangées. Nous avons donc besoin méthode spéciale, ce qui pourrait nous permettre de voir des structures pures derrière leurs implémentations matérielles. C'est la méthode de l'expérimentation, la méthode de l'unité d'induction et de déduction, la méthode des mathématiques. L’image scientifique du monde suppose que nous ne pouvons comprendre le monde qui nous entoure que dans la mesure où nous pouvons voir les structures sous-jacentes qui se cachent derrière lui. Les structures constituent une partie du monde compréhensible à notre esprit. Les formes-structures constituent la base logique non seulement de la réalité qui se trouve en dehors de notre conscience, mais elles sont également le fondement logique esprit humain. L'unité structurelle de l'esprit humain et du monde est une condition de la connaissabilité du monde et, de plus, de sa connaissabilité précisément à travers les structures. La science est à bien des égards une méthode particulière de cognition, une manière unique d’acquérir des connaissances structurelles. Mais dans la science, il y a toujours une autre composante qui présuppose telle ou telle philosophie ou même religion. Par exemple, à la Renaissance, la science était étroitement liée à ce qu'on appelle le « panthéisme » - l'idée de Dieu pénétrant n'importe quelle partie du monde et coïncidant avec espace infini. Plus tard, la science a adopté la philosophie du matérialisme et de l’athéisme. Par conséquent, nous pouvons parler de deux types de principes de l'image scientifique du monde : 1) les principes internes de la science, qui fournissent une méthode scientifique de cognition comme la méthode décrite ci-dessus pour restaurer les structures situées derrière la coque visible. monde sensoriel, 2) les principes externes de la science qui déterminent le lien de la science en tant que méthode de cognition avec une image particulière du monde. La science peut se connecter à n’importe quelle image du monde, à condition que ses principes internes ne soient pas détruits. De ce point de vue, il n’existe pas d’image scientifique pure (c’est-à-dire construite uniquement sur la base de principes internes). Dans tous les cas où nous parlons de l'image scientifique du monde, il y a toujours l'une ou l'autre image du monde (en tant que système principes externes science), ce qui est conforme aux principes internes de la science. De ce point de vue, on peut parler de trois images scientifiques du monde : 1) une image scientifique panthéiste du monde - ici les principes internes de la science se conjuguent avec le panthéisme (c'est l'image du monde de la Renaissance), 2) une image scientifique déiste du monde - ici les principes internes de la science sont combinés avec le déisme (" Le déisme", ou "la doctrine de la double vérité" est la doctrine selon laquelle Dieu n'est intervenu dans le monde qu'au début de sa création, et puis Dieu et le monde existent complètement indépendamment l'un de l'autre, donc les vérités de la religion et de la science sont également indépendantes les unes des autres. Une telle image du monde a été acceptée au siècle des Lumières), 3) une image scientifique athée du monde. monde - ici les principes internes de la science sont combinés avec l'athéisme et le matérialisme (c'est l'image scientifique moderne du monde). Au Moyen Âge, l'image religieuse dominante du monde a également supprimé l'existence et le développement des principes internes de la science, et c'est pourquoi nous ne pouvons pas qualifier l'image médiévale du monde de scientifique. Mais cela ne signifie pas du tout que l'impossibilité de combiner l'image chrétienne du monde et la méthode scientifique de cognition au Moyen Âge soit le dernier argument contre la possibilité d'harmoniser les principes internes de la science et du christianisme dans le cas général. À cet égard, on pourrait imaginer la possibilité d'une quatrième version de l'image scientifique du monde : 4) une image scientifique théiste du monde (« le théisme » est la doctrine de la création du monde par Dieu et de la dépendance constante de le monde sur Dieu). Le développement de l'image scientifique moderne du monde témoigne du fait que les principes externes de la science changent progressivement, l'influence de l'athéisme et du matérialisme dans l'image scientifique moderne du monde s'affaiblit. L’argument puissant des défenseurs de l’image scientifique athée du monde est le principe d’objectivité. La connaissance scientifique est une connaissance objective, et l’objectif est ce qui ne dépend pas de la conscience humaine. Par conséquent, la connaissance scientifique doit impliquer de dépasser le cadre de la subjectivité humaine. comme s'il rejetait de la sphère de la connaissance scientifique tout ce qui concerne la psychologie, la conscience et les sciences humaines en général, le principe d'objectivité est présenté par les partisans de l'image scientifique athée du monde comme l'un des principes du matérialisme et alors seulement dans. Sous cette forme, il se présente comme l'un des principes internes les plus essentiels de la science, comme une condition nécessaire à la connaissabilité des structures de la réalité. Nous pouvons tenter d’expliquer cela en séparant les deux principes d’objectivité – structurel et matérialiste. Principe structurel l'objectivité est l'un des principes internes de la science, qui présuppose la construction de connaissances scientifiques sur la base de structures précisément objectives et communes à l'homme et à la nature. Le principe matérialiste d'objectivité est un principe externe de la science qui limite le domaine des structures objectives uniquement au cadre de structures à prédominance inorganique, c'est-à-dire des structures qui se réalisent dans le monde matériel-sensuel sur des processus et phénomènes inorganiques. De plus, le développement de la science moderne conduit à une convergence croissante des connaissances en sciences naturelles et en sciences humaines, montrant en pratique qu'il est possible de construire des connaissances scientifiques, et donc de mettre en œuvre le principe d'objectivité, non seulement dans le domaine de la nature morte, mais également dans le domaine des connaissances humanitaires. De plus, la pénétration des méthodes de recherche scientifique dans les sciences humaines se fait dans dernièrement non pas par réduction à des structures inorganiques, mais sur la base d’une humanisation des méthodes et moyens mêmes de la connaissance scientifique. Nous pouvons donc conclure que l'image scientifique du monde se compose toujours de deux types de principes : internes et externes. Ce qui unit toutes les images scientifiques du monde, c'est précisément la présence en elles des principes internes de la science, qui en font une méthode de cognition spécifique, structurale et empirique et présupposent une philosophie de la matière et de la forme-structure. La différence entre les images scientifiques du monde vient de la possibilité d'accepter différents principes externes de la connaissance scientifique qui sont cohérents avec ses principes internes. De ce point de vue, nous avons identifié des images scientifiques panthéistes, déistes, athées et théistes du monde. On peut supposer que le développement de l'image scientifique moderne du monde conduit progressivement à un départ des principes externes de l'athéisme et du matérialisme et à l'émergence d'une certaine 5) image scientifique synthétique du monde, dans laquelle la coordination des principes internes de la science sera apparemment réalisée avec des principes externes exprimant la synthèse de principes externes et d'images scientifiques (analytiques) individuelles du monde.
Principes de base pour construire une image scientifique du monde

Les principes directeurs de la construction d'une image scientifique moderne du monde sont : le principe de l'évolutionnisme global, le principe d'auto-organisation (synergétique), le principe de systématique et d'historicité.
L'évolutionnisme global est la reconnaissance de l'impossibilité de l'existence de l'Univers et de tous les petits systèmes générés par celui-ci sans développement et évolution. La nature évolutive de l'Univers témoigne également de l'unité fondamentale du monde, chaque composant qui est une conséquence historique du processus évolutif global amorcé par le Big Bang.
L'une des idées les plus importantes de la civilisation européenne est l'idée du développement mondial. Sous ses formes les plus simples et sous-développées (préformationnisme, épigénèse, cosmogonie kantienne), elle a commencé à pénétrer les sciences naturelles au XVIIIe siècle. Et déjà, le XIXe siècle peut à juste titre être appelé le siècle de l'évolution. D'abord, la géologie, puis la biologie et la sociologie ont commencé à s'intéresser de plus en plus à la modélisation théorique des objets en développement. Mais dans les sciences de la nature inorganique, l'idée de développement a fait son chemin très difficile. Jusqu’à la seconde moitié du XXe siècle, elle était dominée par l’abstraction originelle d’un système fermé et réversible, dans lequel le facteur temps ne joue aucun rôle. Même le passage de la physique newtonienne classique à la physique non classique (relativiste et quantique) n'a rien changé à cet égard. Il est vrai qu’une timide percée dans cette direction a été réalisée par la thermodynamique classique, qui a introduit le concept d’entropie et l’idée de processus irréversibles, en fonction du temps. Ainsi, la « flèche du temps » a été introduite dans les sciences de la nature inorganique. Mais, en fin de compte, la thermodynamique classique étudiait uniquement les systèmes en équilibre fermé. Et les processus hors équilibre étaient considérés comme des perturbations, des déviations mineures qui devaient être négligées dans la description finale du connaissable. objet - un système d'équilibre fermé. Et, d'autre part, la pénétration de l'idée de développement dans la géologie, la biologie, la sociologie et les sciences humaines au XIXe et dans la première moitié du XXe siècle s'est réalisée indépendamment dans chacun des domaines. ces branches de la connaissance. Le principe philosophique du développement du monde (nature, société, homme) n'avait pas d'expression fondamentale pour toutes les sciences naturelles (ainsi que pour toutes les sciences naturelles). avait ses propres formes (indépendantes des autres branches) de concrétisation théorique et méthodologique et ce n'est que vers la fin du XXe siècle que les sciences naturelles trouvent en elles-mêmes des formes théoriques et. outils méthodologiques créer un modèle unifié d'évolution universelle, identifier les lois générales de la nature qui lient en un seul tout l'origine de l'Univers (cosmogenèse), l'émergence du système solaire et de notre planète Terre (géogenèse), l'émergence de la vie (biogenèse) et enfin l'émergence de l'homme et de la société (anthroposociogenèse). Un tel modèle est le concept d'évolutionnisme global. Dans le concept d'évolutionnisme global, l'Univers est présenté comme un tout naturel se développant au fil du temps. L'histoire entière de l'Univers depuis le « Big Bang » jusqu'à l'émergence de l'humanité est considérée dans ce concept comme un processus unique dans lequel les types d'évolution cosmique, chimique, biologique et sociale sont successivement et génétiquement interconnectés. reflètent ici des transitions fondamentales dans l’évolution des systèmes moléculaires et l’inévitabilité de leur transformation en matière organique.
Le principe d'auto-organisation (synergétique) est la capacité observée de la matière à devenir plus complexe et à créer des structures de plus en plus ordonnées au cours de l'évolution. Le mécanisme de transition des systèmes matériels vers un état plus complexe et ordonné est apparemment similaire pour les systèmes de tous niveaux.
L’émergence de synergies dans les sciences naturelles modernes a apparemment été initiée par la préparation d’une synthèse évolutionniste globale de toutes les disciplines des sciences naturelles. Cette tendance a été freinée dans une large mesure par une circonstance telle que l'asymétrie frappante des processus de dégradation et de développement de la nature vivante et inanimée. Pour maintenir la cohérence de l'image générale du monde, il est nécessaire de postuler la présence de la matière dans son ensemble non seulement d'une tendance destructrice, mais aussi créatrice. La matière est capable d'effectuer un travail contre l'équilibre thermodynamique, l'auto-organisation et l'auto-complexité.
Le postulat sur la capacité de la matière à s’auto-développer a été introduit dans la philosophie il y a longtemps. Mais sa nécessité fondamentale et sciences naturelles(physique, chimie) n'a commencé à être réalisé que maintenant. Sur cette vague, des synergies sont nées - la théorie de l'auto-organisation. Son développement a commencé il y a plusieurs décennies. Actuellement, elle se développe dans plusieurs directions : synergies (G. Haken), thermodynamique hors équilibre (I.R. Prigogine), etc. Signification générale le complexe d’idées qu’ils ont développé, les qualifiant de synergiques (terme de G. Haken).
Le principal changement idéologique produit par les synergies peut s’exprimer comme suit :
les processus de destruction et de création, de dégradation et d'évolution dans l'Univers sont égaux ;
les processus de création (augmentation de la complexité et de l'ordre) ont un algorithme unique, quelle que soit la nature des systèmes dans lesquels ils s'effectuent.
Dans ce cas, l'auto-organisation est comprise comme la transition spontanée d'un système ouvert hors équilibre de formes d'organisation moins complexes et plus ordonnées. Il s'ensuit que l'objet de la synergie ne peut être n'importe quel système, mais uniquement ceux qui satisfont à au moins deux conditions :
ils doivent être ouverts, c'est-à-dire échanger de la matière ou de l'énergie avec environnement externe;
ils doivent également être significativement hors équilibre, c'est-à-dire être en
état éloigné de l’équilibre thermodynamique.
Ainsi, la synergie affirme que le développement de systèmes ouverts et fortement hors d’équilibre se fait dans le cadre d’une complexité et d’un ordre croissants. Il y a deux phases dans le cycle de développement d’un tel système :
1. Période lisse développement évolutif avec des changements linéaires bien prévisibles, conduisant finalement le système à un état critique instable ;
2. Sortie simultanée et brutale d’un état critique et transition vers un nouvel état stable avec dans une plus grande mesure complexité et ordre.
Une caractéristique importante de la deuxième phase est que la transition du système vers un nouvel état stable est ambiguë. Il s’ensuit que l’évolution de tels systèmes est fondamentalement imprévisible.
L’exemple le plus populaire et le plus clair de formation de structures de complexité croissante est un phénomène bien étudié en hydrodynamique appelé cellules de Bénard.
Ce phénomène, bien connu de tous, est incroyable du point de vue de la mécanique statistique. Après tout, cela indique qu'au moment de la formation des cellules de Benard, des milliards de molécules liquides, comme sur commande, commencent à se comporter de manière coordonnée, alors qu'elles étaient auparavant en mouvement chaotique. (Le mot « synergie », d’ailleurs, signifie simplement « action conjointe »). Les lois statistiques classiques ne fonctionnent évidemment pas ici ; il s’agit là d’un phénomène d’un autre ordre. Après tout, si, même par hasard, un tel « correct » et
Une structure « coopérative » stable s’était formée, ce qui est presque incroyable, elle se serait immédiatement désintégrée. Mais il ne se désintègre pas dans des conditions appropriées (afflux d'énergie de l'extérieur), mais reste au contraire stable. Cela signifie que l’émergence de structures de plus en plus complexes n’est pas un accident, mais un modèle.
La recherche de processus d’auto-organisation similaires dans d’autres classes de systèmes ouverts hors équilibre semble prometteuse : le mécanisme d’action du laser ; croissance cristalline; horloge chimique (réaction de Belousov-Zhabotinsky), formation d'un organisme vivant, dynamique des populations, économie de marché - autant d'exemples d'auto-organisation de systèmes de nature différente.
L'interprétation synergique de ce type de phénomènes ouvre de nouvelles possibilités et directions pour leur étude. De manière générale, la nouveauté de l’approche synergique peut s’exprimer dans les termes suivants :
Le chaos n’est pas seulement destructeur, mais aussi créatif et constructif ; le développement se fait par instabilité (chaoticité).
La nature linéaire de l’évolution des systèmes complexes, à laquelle la science classique est habituée, n’est pas la règle, mais plutôt l’exception ; Le développement de la plupart de ces systèmes est non linéaire. Cela signifie que pour les systèmes complexes, il existe toujours plusieurs voies d’évolution possibles.
Le développement s'effectue par un choix aléatoire parmi plusieurs possibilités autorisées d'évolution ultérieure au point de bifurcation.
Ce n'est donc pas une coïncidence malentendu ennuyeux, il est intégré au mécanisme de l’évolution. Cela signifie également que la voie actuelle d’évolution du système n’est peut-être pas meilleure que celles qui ont été rejetées par hasard.
choix.
Les idées de synergie sont de nature interdisciplinaire. Ils constituent la base de la synthèse évolutive globale qui se déroule dans les sciences naturelles. Par conséquent, la synergie est considérée comme l’un des éléments les plus importants de l’image scientifique moderne du monde.
Systématicité
La systématicité signifie la reproduction par la science du fait que l'Univers apparaît comme le plus grand système que nous connaissons, composé d'un grand nombre d'éléments (sous-systèmes) de différents niveaux de complexité et
ordre.
Un système est généralement compris comme un certain ensemble ordonné d’éléments interconnectés. L'effet systémique se retrouve dans l'apparition de nouvelles propriétés dans un système intégral résultant de l'interaction d'éléments (atomes d'hydrogène et d'oxygène, par exemple,
combinés en une molécule d’eau modifient radicalement leurs propriétés normales). Une autre caractéristique importante d'une organisation systémique est la hiérarchie, la subordination - l'inclusion séquentielle de systèmes de niveaux inférieurs dans des systèmes de niveaux supérieurs. niveaux élevés. Méthode systémique la combinaison d'éléments exprime leur unité fondamentale : grâce à l'inclusion hiérarchique de systèmes de différents niveaux les uns dans les autres, chaque élément de tout système est connecté à tous les éléments de tous
systèmes possibles. (Par exemple : homme – biosphère – planète Terre – système solaire– Galaxie, etc.) C’est précisément ce caractère fondamentalement unifié que manifeste le monde qui nous entoure. De la même façon
l'image scientifique du monde et les sciences naturelles qui la créent sont organisées en conséquence. Toutes ses parties sont désormais étroitement liées les unes aux autres - il n'existe désormais pratiquement plus de science « pure ». Tout est imprégné et
transformé par la physique et la chimie.

Historicité

L’historicité, et donc l’incomplétude fondamentale du présent, voire de toute image scientifique du monde. Celui qui existe aujourd'hui est généré à la fois par l'histoire antérieure et par des facteurs spécifiques. caractéristiques socioculturelles de notre époque. Le développement de la société, un changement dans ses orientations de valeurs, la prise de conscience de l'importance d'étudier des systèmes naturels uniques dans lesquels partie intégrante la personne elle-même est incluse, ce qui change à la fois la stratégie de la recherche scientifique et son attitude envers le monde.
Mais l’Univers se développe aussi. Bien entendu, le développement de la société et de l’Univers se déroule à des rythmes différents. Mais leur chevauchement mutuel rend pratiquement impossible l’idée de créer une image scientifique finale, complète et absolument vraie du monde.

Contours généraux de l’image moderne des sciences naturelles du monde

Le monde dans lequel nous vivons se compose de différentes échelles systèmes ouverts, dont le développement est soumis aux lois générales. En même temps, il a le sien longue histoire, V aperçu général connu de la science moderne. Voici une chronologie des plus événements importants cette histoire :

Il y a 20 milliards d'années - Grand coup.
3 minutes plus tard - la formation de la base matérielle de l'Univers (photons, neutrinos et antineutrinos avec un mélange d'hydrogène, d'hélium et de noyaux d'électrons).
Après plusieurs centaines de milliers d'années - apparition des atomes (éléments légers).
Il y a 19 à 17 milliards d’années – formation de structures à différentes échelles.
Il y a 15 milliards d'années - apparition des étoiles de première génération, formation des atomes éléments lourds.
Il y a 5 milliards d'années – la naissance du Soleil.
Il y a 4,6 milliards d'années - formation de la Terre.
Il y a 3,8 milliards d'années - l'origine de la vie.
Il y a 450 millions d'années - apparition des plantes.
Il y a 150 millions d'années - apparition des mammifères.
Il y a 2 millions d'années - le début de l'anthropogenèse.
Nous prêtons principalement attention aux succès de la physique et de la cosmologie, car ce sont ces sciences fondamentales qui dessinent les contours généraux de l’image scientifique du monde.
L’image du monde dressée par les sciences naturelles modernes est à la fois inhabituellement complexe et simple. C'est complexe car cela peut dérouter une personne habituée à être d'accord avec bon sens classique idées scientifiques. Idées sur le début des temps, dualisme onde-particule des objets quantiques, structure interne vide capable d'accoucher particules virtuelles, et d’autres innovations similaires donnent à l’image actuelle du monde un aspect légèrement « fou ».
Mais en même temps, cette image est majestueusement simple, harmonieuse et même à certains égards élégante. Ces qualités lui sont données principalement par les principes directeurs de construction et d'organisation des connaissances scientifiques modernes dont nous avons déjà évoqué :
cohérence,
l'évolutionnisme mondial,
l'auto-organisation,
historicité.
Ces principes de construction d'une image scientifique du monde dans son ensemble correspondent aux lois fondamentales de l'existence et du développement de la nature elle-même.
Ces caractéristiques fondamentales de l’image moderne des sciences naturelles du monde déterminent principalement ses grandes lignes, ainsi que la manière même d’organiser les diverses connaissances scientifiques en quelque chose d’entier et cohérent.
Conclusion

Dans le monde moderne, l’image scientifique du monde suscite non seulement l’admiration, mais aussi la peur. On entend souvent dire que la science apporte aux gens non seulement des avantages, mais aussi les plus grands malheurs. Pollution atmosphérique, accidents dans les centrales nucléaires, augmentation du fond radioactif à la suite d'essais armes nucléaires, le « trou d'ozone » sur la planète, un fort déclin des espèces végétales et animales - les gens ont tendance à expliquer tous ces problèmes environnementaux et d'autres par le facteur même de l'existence de la science. Mais l’important n’est pas la science, mais entre les mains de qui elle se trouve, quels sont les intérêts sociaux qui la sous-tendent, quels sont les intérêts publics et sociaux qui la sous-tendent. agences gouvernementales guider son développement.
Augmenter problèmes mondiaux l’humanité accroît la responsabilité des scientifiques dans les destinées de l’humanité. La question des destinées historiques et du rôle de la science dans ses relations avec l'homme et les perspectives de son développement n'a jamais été discutée avec autant d'acuité qu'à l'heure actuelle, dans le contexte d'une crise mondiale croissante de civilisation.
La science est institution sociale, elle est étroitement liée au développement de la société tout entière. La complexité et l'incohérence de la situation moderne résident dans le fait que la science est impliquée dans la génération d'une vision mondiale, problèmes environnementaux civilisation; et en même temps, sans science, résoudre ces problèmes est en principe impossible. Cela signifie que le rôle de la science dans l’histoire de l’humanité ne cesse de croître.
J'ai essayé de souligner quelques caractéristiques fondamentales
image scientifique naturelle moderne du monde. Ceci n'est que son aperçu général, après avoir esquissé ce qui vous permet de commencer une connaissance plus détaillée des innovations conceptuelles spécifiques des sciences naturelles modernes.

Références
1. Concepts des sciences naturelles modernes. Éd. Lavrinenko V.N. et Ratnikova V.P. M., 2004.
2. Kapitsa S.P. et autres. Synergies et prévisions futures. M., 2001.
3. Pakhomov B.Ya. La formation d'une image physique moderne du monde. M., 1985.
4. Haken G. Information et auto-organisation. Approche macroscopique des systèmes complexes. - M., 1991.



Avez-vous aimé l'article? Partagez avec vos amis !