Faits intéressants sur l'électricité dans le monde moderne. Faits intéressants sur l'électricité

L'électricité fait aujourd'hui partie intégrante de la société. Alors que la plupart des habitants des pays développés souhaitent économiser de l'argent sur leurs factures d'électricité, de nombreux pays en développement travaillent sur la manière de produire suffisamment d'énergie pour les citoyens du pays. Nous avons rassemblé des faits intéressants sur l'énergie électrique pour nos lecteurs.

1. 20% pour le confort des ménagères


La quantité d'énergie utilisée par les ménages américains typiques pour la climatisation représente environ 20 % de la consommation électrique du pays.

2. J'ai fait du bien - je m'en suis sorti


Il existe des prisons au Brésil qui permettent aux détenus de pédaler sur des vélos d'exercice, générant ainsi de l'énergie pour les villages environnants. Pour cela, ils se voient proposer une réduction de peine de prison.

3. De l'argent pour les déchets, des déchets à recycler, de l'énergie thermique en électricité


La Suède est si douée en matière de recyclage qu'elle importe souvent des déchets de Norvège pour ses usines de recyclage génératrices d'énergie.

4. Centrale hydroélectrique d'Itaipu


Près d'un quart de l'électricité du Brésil est produite par une seule centrale électrique.

5. Tout est propre en Suisse


En Suisse, plus de la moitié de l'énergie produite est produite par des centrales hydroélectriques, le reste étant produit par des centrales hydroélectriques. centrales nucléaires. En conséquence, le secteur énergétique du pays ne produit quasiment aucune émission de CO2.

6. Centrales électriques à accumulation par pompage


Les centrales électriques à accumulation par pompage vous permettent de stocker de l'énergie verte pour de longues périodes temps. Initialement, l'eau est amenée au sommet de la structure et lorsqu'elle s'écoule, elle fait tourner les pales de la turbine, générant de l'électricité, dont une partie est utilisée pour pomper à nouveau l'eau.

7. Ingénieurs du Titanic


Aucun des ingénieurs du Titanic ne s'est échappé. Ils ont tous coulé avec le navire, car jusqu'au dernier, ils étaient occupés à maintenir la production d'électricité sur le navire.

8. Pause thé au Royaume-Uni


La centrale électrique de Dinorwig, au Royaume-Uni, a pour seul objectif de fournir de l'énergie supplémentaire pendant les pauses publicitaires des films, lorsque tout le monde dans le pays allume sa bouilloire électrique pour faire du thé.

9. Seules l’énergie éolienne et hydraulique sont plus propres que l’énergie nucléaire


En production énergie nucléaire Les niveaux de CO2 sont inférieurs à ceux produits par l’énergie solaire et géothermique. Seules les énergies éolienne et hydraulique sont plus propres.

10. Stations géothermiques en Islande


L'Islande produit toute son énergie à partir de sources renouvelables. L’énergie hydroélectrique fournit environ les deux tiers des besoins énergétiques, le reste étant généré par des centrales géothermiques.


Aux États-Unis, environ la moitié de l’énergie nucléaire provient d’anciennes ogives nucléaires soviétiques.

12. L'énergie hydraulique en Norvège


La Norvège tire 99 % de son énergie de centrales hydroélectriques. C’est plus que n’importe quel autre pays sur Terre.

13. Vent, tu es un vent puissant...

14. Rover Curiosity


Le rover Curiosity était propulsé par générateur nucléaire, qui était à peine assez puissant pour (par exemple) faire tourner un ventilateur de plafond.

15. Réacteurs au fluorure de thorium liquide


Les réacteurs au fluorure de thorium liquide pourraient répondre à la totalité de la demande énergétique annuelle mondiale en utilisant seulement environ 7 000 tonnes de thorium.

16. Nucléaire France


La France produit tellement d’énergie nucléaire qu’elle l’exporte.

17. Électricité nationalisée


En 1963, le Québec nationalise l'électricité. Ainsi, 96 % de l'énergie du Québec est désormais produite à partir de sources hydroélectriques. La province canadienne possède également des tarifs parmi les moins chers du continent.

18. Le livre est la connaissance, la connaissance est le pouvoir, le pouvoir de la connaissance est le courant dans le village


William Kamkwamba est un adolescent malawien qui a lu dans un livre de bibliothèque comment construire un moulin à vent. Puis il a fabriqué un moulin à vent et a fourni de l'électricité à son village.

19. Audacieux et stupide


Dans les années 1970, la Russie a construit plusieurs phares nucléaires le long de ses côtes. Il manque actuellement deux générateurs.

20. La « batterie du monde » ne durerait que 10 minutes

Les « trains de minerai » suédois génèrent 5 fois plus d'électricité qu'ils n'en utilisent réellement pour se déplacer. L’énergie inutilisée est utilisée pour alimenter les villes voisines.

25. Soleil, déserts et humanité


En seulement 6 heures, les déserts de la Terre absorbent plus d’énergie solaire que l’ensemble de l’humanité n’en consomme en un an.

L'électricité fait aujourd'hui partie intégrante de la société. Alors que la plupart des habitants des pays développés se demandent comment économiser sur leurs factures d’électricité, de nombreux pays en développement s’efforcent de produire suffisamment d’énergie pour leurs citoyens. Nous avons rassemblé des faits intéressants sur l'énergie électrique pour nos lecteurs.


IMPORTANT! L'électricité est notre assistant indispensable. Mais pour ceux qui ne connaissent pas ou négligent la sécurité électrique, l'électricité comporte de nombreux dangers mortels. Un certificat de sécurité électrique est un élément important pour ceux qui ont quelque chose à voir avec l'électricité.

1. 20% pour le confort des ménagères


La quantité d'énergie utilisée par les ménages américains typiques pour la climatisation représente environ 20 % de la consommation électrique du pays.

2. J'ai fait du bien - je m'en suis sorti


Il existe des prisons au Brésil qui permettent aux détenus de pédaler sur des vélos d'exercice, générant ainsi de l'énergie pour les villages environnants. Pour cela, ils se voient proposer une réduction de peine de prison.

3. De l'argent pour les ordures, des ordures pour le recyclage, énergie thermiqueà l'électricité


La Suède est si douée en matière de recyclage qu'elle importe souvent des déchets de Norvège pour ses usines de recyclage génératrices d'énergie.

4. Centrale hydroélectrique d'Itaipu


Près d'un quart de l'électricité du Brésil est produite par une seule centrale électrique.

5. Tout est propre en Suisse


En Suisse, plus de la moitié de l'énergie produite est produite par des centrales hydroélectriques et le reste par des centrales nucléaires. En conséquence, le secteur énergétique du pays ne produit quasiment aucune émission de CO2.

6. Centrales électriques à accumulation par pompage


Les centrales électriques à accumulation par pompage permettent de stocker de l’énergie verte pendant de longues périodes. Initialement, l'eau est amenée au sommet de la structure et lorsqu'elle s'écoule, elle fait tourner les pales de la turbine, générant de l'électricité, dont une partie est utilisée pour pomper à nouveau l'eau.

7. Ingénieurs du Titanic


Aucun des ingénieurs du Titanic ne s'est échappé. Ils ont tous coulé avec le navire, car jusqu'au dernier, ils étaient occupés à maintenir la production d'électricité sur le navire.

8. Pause thé au Royaume-Uni


La centrale électrique de Dinorwig, au Royaume-Uni, a pour seul objectif de fournir de l'énergie supplémentaire pendant les pauses publicitaires des films, lorsque tout le monde dans le pays allume sa bouilloire électrique pour faire du thé.

9. Seules l’énergie éolienne et hydraulique sont plus propres que l’énergie nucléaire


La production d’énergie nucléaire produit moins de CO2 que la production d’énergie solaire et géothermique. Seules les énergies éolienne et hydraulique sont plus propres.

10. Stations géothermiques en Islande


L'Islande produit toute son énergie à partir de sources renouvelables. L’énergie hydroélectrique fournit environ les deux tiers des besoins énergétiques, le reste étant généré par des centrales géothermiques.

11. Ogives nucléaires soviétiques


Aux États-Unis, environ la moitié de l’énergie nucléaire provient d’anciennes ogives nucléaires soviétiques.

12. L'énergie hydraulique en Norvège

Sur le territoire région de Sverdlovsk, au centre de la ville de Nevyansk se trouve l'une des attractions de la tour penchée Oural-Nevyansk. Il y a beaucoup de métal dans la tour : les encadrements de portes et de fenêtres sont en fonte, les sols et les balcons sont revêtus de dalles en fonte. À l'intérieur de la tour se trouve une charpente métallique dont les points de sortie sont fixés aux murs avec des rondelles en fonte ; La tour Nevyansk est couronnée par un clocher avec des cloches anciennes, et sur le toit lui-même se trouve une boule de 40 centimètres avec des pointes - le premier paratonnerre au monde (paratonnerre - un dispositif qui reçoit un coup de foudre et draine le courant dans le sol), installé dans début XVIII siècle - plusieurs décennies avant son invention par Benjamin Franklin.

Foudre et trésor

Les Grecs de l’Antiquité croyaient que la plupart de l’ambre se trouvait sur la côte. mer du Nord, même si nous n'y sommes jamais allés. Sur la base de mythes, notamment sur la côte de la mer du Nord, le fils du dieu solaire Hélios Phaéton a été frappé par la foudre, ils ont apparemment vu un lien entre la foudre et les propriétés de l'ambre pour générer de l'électricité statique.

Les éclairs dans le sol indiquaient aux chasseurs de trésors que c'était là que les trésors étaient enfouis. Il est clair que la foudre frappe des monticules contenant grand nombre métal

En Russie, l'endroit où frappait la foudre était considéré comme le meilleur endroit pour creuser un puits. Naturellement, l’eau attire l’électricité. Par conséquent, la probabilité qu’il y ait de l’eau à proximité était très élevée ! Mais une question connexe est de savoir s'il est pratique pour les propriétaires de vivre dans un tel endroit et comment ils réagiront à la combinaison de l'électricité, de la foudre et du magnétisme.

Les gens et l'électricité

À la cour de Louis XV, des expériences ont été menées avec l'électricité et le magnétisme, au cours desquelles au moins 180 soldats ont été placés sur la place se tenant la main et une décharge du pot de Leyde les a traversés (le pot de Leyde a été le premier condensateur électrique, inventé par le scientifique néerlandais Pieter van Musschenbroeck et son élève Kuhneus en 1745 à Leiden. L'invention du pot de Leyde a stimulé l'étude de l'électricité, en particulier la vitesse de sa propagation et les propriétés électriquement conductrices de certains matériaux. les métaux et l'eau (sauf l'eau distillée) étaient les meilleurs conducteurs. Grâce à la jarre de Leyde, il fut possible d'obtenir pour la première fois une étincelle électrique.

Toute la cour observait avec une grande curiosité le « frémissement massif » provoqué par le passage du courant à travers un tel dispositif improvisé. circuit électrique.

Vitesse courant électrique presque égale à la vitesse de la lumière. En 1746, alors que cela n'était pas encore connu, le prêtre et physicien français Jean-Antoine Nollet voulut mesurer expérimentalement la vitesse du courant. Il place 200 moines, reliés entre eux par des fils de fer, dans un cercle long d'un kilomètre et demi, puis décharge dans ce circuit une batterie de jarres de Leyde, inventée un an plus tôt. Tous les moines réagirent au courant en un instant, ce qui convainquit Nolle que valeur élevée la valeur souhaitée.

Il y a deux cas dans l'histoire des prisons américaines où des accusés ont vu leur peine modifiée de la peine de mort à l'emprisonnement à vie, mais ils ont quand même été électrocutés. En 1989, Michael Anderson Godwin a arrangé pour lui-même chaise électrique, assis sur des toilettes en métal dans sa cellule en train de réparer la télévision. Le court-circuit s'est produit lorsqu'il a coupé le câblage. En 1997, un incident similaire est arrivé à Lawrence Baker : il s'est également assis sur des toilettes en métal tout en regardant la télévision avec des écouteurs faits maison.

Magnétisme et électricité statique

L'électricité statique et le magnétisme ont commencé à être étudiés à l'aide de l'appareil le plus simple : un disque métallique avec un manche en verre, un tampon de cire, un chat et un doigt. C'est avec cet ensemble d'outils qu'Alexandre Volt a travaillé.

De nombreuses unités de grandeurs physiques en génie électrique portent le nom de scientifiques qui ont étudié l'électricité et le magnétisme. Mais un seul d'entre eux, n'ayant que deux lettres dans son nom de famille, a reçu cet honneur à deux reprises. Il s'agit de l'Allemand Georg Ohm. Nous connaissons tous l'unité de mesure de la résistance « Ohm », mais probablement peu de gens se souviennent que la grandeur physique inverse de la résistance - « conductivité électrique » - est mesurée en quantités appelées « mo ».

Malgré tout cela, en 1827, Georg Ohm ne réussit pas l'examen et ne fut pas autorisé à enseigner les principes fondamentaux de la physique et du magnétisme à l'école, en raison de niveau bas connaissances et absence totale capacités pédagogiques.

Luigi Galvani était autrefois appelé un magicien car il faisait bouger les cadavres de veaux, de souris, de chats et de grenouilles ! Et c'est en son honneur que sont nommées les sources de courant chimique - les cellules galvaniques.

La première batterie de 4 volts a été trouvée en Égypte et consistait en un cylindre de cuivre dans lequel était encastrée une tige de fer. Du liquide a été versé dans le cylindre, mais la tige n'a pas touché les parois du récipient.

Animaux et électricité

Saviez-vous que dans certaines régions d'Afrique et d'Amérique du Sud, où il n'y a toujours pas d'électricité dans les maisons, les maisons sont éclairées grâce à des lucioles. Ils sont placés dans des bocaux en verre fermés ! En même temps, les bocaux remplis de lucioles dégagent une lumière assez vive !

L'anguille électrique d'Amazonie délivre des chocs de plus de 500 volts. Les sections locales Avant de les attraper, ils conduisent un troupeau de vaches dans la rivière pour que les anguilles y consacrent toute leur énergie.

Un oiseau posé sur une ligne électrique à haute tension ne souffre pas du courant, car son corps est un mauvais conducteur de courant. Aux endroits où les pattes de l'oiseau touchent le fil, un connexion parallèle, et comme le fil conduit beaucoup mieux l'électricité, un très petit courant traverse l'oiseau lui-même, ce qui ne peut pas causer de dommages. Cependant, dès que l'oiseau sur le fil touche un autre objet mis à la terre, par exemple une partie métallique d'un support, il meurt immédiatement, car alors la résistance de l'air est trop grande par rapport à la résistance du corps, et tout le courant circule. à travers l'oiseau.

Chez les poissons de l'ordre des Gymnotiiformes (un ordre de poissons marins à nageoires rayonnées qui habitent les réservoirs d'eau douce d'Amérique du Sud, ont un corps allongé et nagent à l'aide d'une nageoire anale. Ces poissons nocturnes sont capables de produire un champ électrique pour la navigation et communication), les mâles déclarent leur supériorité avec un signal électrique d'une fréquence plus élevée que celle des concurrents, qui permet d'identifier le mâle dominant sans combat.

L’oiseau ne meurt pas car un courant négligeable traverse son corps. Cependant, dès qu'elle touche un objet mis à la terre (par exemple un support métallique), la tension qui en résulte la tue instantanément.

2) De nombreux animaux sont capables de produire de l’électricité. Par exemple, les anguilles électriques, à des fins d'autodéfense ou de chasse, peuvent générer du courant électrique avec une tension allant jusqu'à 500 V. Par conséquent, les habitants de certaines régions de l'Amazonie, lorsqu'ils les chassent, se protègent des chocs électriques en premier « décharger » les anguilles à l'aide d'un troupeau de vaches.

3) Les poissons de l'ordre des Gymnotiiformes (Amérique du Sud) déterminent le mâle dominant par la fréquence la plus élevée du signal électrique.

4) Le corps humain, en particulier les muscles cardiaques, est capable de produire de l'électricité. C'est grâce à cela que l'électrocardiogramme permet de mesurer le rythme des battements cardiaques. 5) Le premier circuit électrique fut construit à la cour de Louis XV. Elle était « vivante », puisque lors de l'expérience une décharge obtenue à l'aide d'un pot de Leyde a traversé les corps de 180 soldats.

6) A la fin du 19ème siècle, entre les inventeurs du permanent et du CA T. Edison et N. Tesla se sont embrasés vraie guerre. Une tentative a été faite pour exclure légalement la possibilité de transmettre du courant alternatif à l'aide de lignes électriques. Cependant, comme on le sait, la préférence a ensuite été donnée au courant alternatif.

7) En 1874, une tentative a été faite en Russie pour réduire le coût de l'électricité lors de son transport, en utilisant pour cela les rails ferroviaires. L'ingénieur F. Pirotsky a utilisé l'un des rails comme fil aller et le second comme fil retour. L'idée de créer des transports urbains sur cette base s'est avérée dangereuse pour les piétons et a été appliquée bien plus tard dans le métro moderne.

8) Lorsqu'un coup de foudre frappe une personne, un motif spécial se forme sur son corps, appelé figure de Lichtenberg.


9) Au tout début de la recherche sur les phénomènes électriques, sans instruments spéciaux, les scientifiques ont été contraints de sacrifier leur santé au nom de la science. V. Petrov, qui a été le premier à donner une description scientifique du phénomène arc électrique J'ai coupé la couche supérieure de la peau de mes doigts pour mieux ressentir les courants faibles.

Le traitement électrique a sa propre histoire. Les premiers à y avoir pensé furent les Romains, qui placèrent une anguille électrique sur la tête des patients souffrant de maux de tête. On dit qu'après cela, soit tout a disparu, soit le patient n'a plus admis avoir mal à la tête.

La plus vieille ampoule du monde

Aux États-Unis, l'un des services d'incendie de la ville de Livermore (Californie) possède la plus ancienne ampoule du monde. C'est une lampe de 4 watts fait soi-même, connue sous le nom de « Lampe du siècle ». Il brûle constamment depuis plus de 100 ans, depuis 1901. Le secret de sa longévité réside dans le fait que l’ampoule n’était presque jamais éteinte. Une durée de vie si inhabituellement longue a non seulement fait de la lampe un monument local, mais lui a également permis de prendre sa place dans le Livre Guinness des Records en tant que lampe fonctionnelle la plus ancienne au monde.

La centenaire possède son propre site Internet www.centennialbulb.org, sur lequel vous pouvez, entre autres, suivre son travail via une webcam (les photos sont prises toutes les 10 secondes). Date exacte L'installation de cette lampe est inconnue, mais elle a probablement eu lieu à la mi-juin 1901. Depuis, une ampoule de 4 W fonctionne 24 heures sur 24 dans l'un des services d'incendie, remplissant la fonction d'éclairage technique des équipements. L'ampoule a cessé de fonctionner la seule fois pendant 22 minutes en 1976, lorsque, pour des raisons sécurité incendie elle a été transférée dans un autre établissement. Le transport a été effectué accompagné d'une escorte de police et de pompiers sous la direction du capitaine des pompiers.

Afin de comprendre le phénomène de longévité de cette ampoule, il faut comprendre son spécifications techniques. Il a été produit par ShelbyElectricCo. D'après les dessins du principal concurrent de T. Edison, Adolphe A. Chaillet. Le corps en verre était soufflé à la main et l'élément filamentaire était un filament de carbone. Raison courante le fonctionnement à long terme et sans problème de ces lampes a été expliqué par Debora Katz, professeur de physique à l'US NavalAcademy d'Annapolis, sur la base de recherche approfondie ampoules électriques Shelby vintage.

"Le phénomène de la lampe Livermore peut s'expliquer par le fait que les anciennes ampoules à incandescence avaient deux différences fondamentales des analogues modernes. Premièrement, le filament qu'ils contenaient était huit fois plus épais qu'aujourd'hui, et deuxièmement, le matériau utilisé pour sa fabrication était un semi-conducteur, très probablement à base de carbone. C'est très différence importante: Lorsqu'une bobine à incandescence moderne surchauffe, elle cesse de conduire l'électricité, alors que les ampoules Shelby fonctionnaient mieux à mesure qu'elles devenaient chaudes. Ainsi, la condition objective pour la longévité de l'ampoule de la caserne de pompiers n°6 de la ville de Livermore était son fonctionnement ininterrompu et l'absence de cycles marche-arrêt. Mais ce fait n’enlève rien au petit miracle de l’existence d’une lampe qui a survécu à son deuxième siècle.

Inventeur Thomas Edison dans les années 1880, il travailla sur les systèmes d’électrification des villes américaines, mais ne parvenait pas à transmettre le courant continu au-delà de quelques pâtés de maisons. Son concurrent George Westinghouse a obtenu un grand succès en utilisant le courant alternatif, mais Edison a fait de son mieux pour empêcher sa propagation, le qualifiant de courant tueur. Dans le même temps, une commission spéciale recherchait un appareil permettant une exécution la plus « humaine » et Edison recommanda la machine Westinghouse AC. Ainsi, il a contribué à l’invention de la chaise électrique.

Générateurs d’anguilles électriques d’Amérique du Sud peut générer une tension allant jusqu'à 1 200 volts avec un courant de 1,2 A. Cela suffirait pour allumer des ampoules de six cents watts.

Tension à l'intérieur de la foudre- environ 100 000 000 volts par mètre.

Première batterie 4 volts ont été trouvés en Égypte et consistaient en un cylindre de cuivre et une tige de fer encastrée dedans. Du liquide a été versé dans le cylindre, mais la tige n'a pas touché les parois du récipient

Anguilles électriques peut délivrer des décharges électriques d'environ 500 volts pour se défendre et pendant la chasse.

La plus grande source d'énergie au monde pour les centrales électriques, c'est du charbon. La combustion du charbon dans les chaudières chauffe l'eau et la vapeur montante fait tourner les turbines des générateurs.

L'électricité joue rôle important en santé humaine. Les cellules musculaires du cœur se contractent et produisent de l'électricité. Un électrocardiogramme (ECG) mesure le rythme cardiaque grâce à ces impulsions.

Dans les années 1880, il y avait une « guerre des courants ». entre Thomas Edison (qui a inventé le courant continu) et Nikola Tesla (qui a découvert le courant alternatif). Tous deux souhaitaient que leurs systèmes soient largement utilisés, mais le courant alternatif l’a emporté car il était plus facile à obtenir, plus efficace et moins dangereux.

Il est intéressant de noter que l'un des pères fondateurs des États-Unis Benjamin Franklin n'était pas seulement un homme politique, mais aussi un scientifique. Il a mené des recherches approfondies sur l'électricité au XVIIIe siècle et a inventé le paratonnerre.

Les anciens Grecs croyaient, que la majeure partie de l'ambre se trouve sur la côte de la mer du Nord. C'est là que Phaéton fut projeté au sol par la foudre. Ils ont probablement vu un lien entre la foudre et les propriétés de l'ambre.

Dictionnaire de l'Académie russe, édition 1794 C'est ainsi qu'il décrivit un jour « l'électricité » : « En général, cela signifie l'action d'une substance très fluide et mince, ses propriétés très différentes de tous les corps liquides connus ; ayant la capacité de communiquer avec presque tous les corps, mais avec les autres plus, avec les autres moins, se déplaçant avec une immense vitesse et produisant des phénomènes très étranges avec son mouvement.

A la fin des années 30 du 18ème siècle Charles F. Dufay, membre de l'Académie de Paris, a écrit : « Peut-être, à terme, sera-t-il possible de trouver un moyen de produire de l'électricité à grande échelle et, par conséquent, d'augmenter la puissance du feu électrique, qui dans nombre de ces expériences semble... être de même nature que la foudre"

Autrefois, le lieu de la foudre dans le sol indiquait aux voleurs des tumulus scythes que c'était ici que les trésors étaient enterrés. Il est clair que la foudre frappe des monticules contenant du « remplissage » métallique.

En Russie, un endroit où la foudre a frappé, était considéré comme le meilleur pour creuser un puits. La probabilité d’avoir de l’eau proche était très élevée !

Pas étonnant que le célèbre Luigi Galvani, même pas physicien, était autrefois surnommé sorcier. Il faisait bouger les cadavres de veaux, de chats, de souris et de grenouilles ! Les sources de courant chimique – les cellules galvaniques – sont nommées en son honneur.

Une des légendes sur le grand physicien Thomas Edison associé à sa religiosité, rarement remise en question. Et tout cela parce qu'au fil des années, Edison se rendait souvent dans une église près de chez lui. Le malentendu a été révélé un jour après qu'on lui ait posé des questions sur sa croyance en Dieu et sur ses visites périodiques à l'église locale. Il s'est avéré que l'église était juste sur le chemin entre le laboratoire et la maison d'Edison, et il se rendait souvent à l'église lors des soirées fraîches juste pour se réchauffer à l'intérieur.

Etude de l'électricité statique Tout a commencé à l’aide d’un appareil simple : un disque métallique, un stylo en verre, un chat, un tampon de cire, un doigt. C'est avec cet « ensemble d'outils » que travailla le célèbre Alessandro Volta.

Enfant, Thomas Edison n'a montré aucun talent particulier, considérant un enfant difficile. Un jour, un professeur l'a traité d'« idiot sans cervelle », sa mère l'a retiré de l'école, où il ne pouvait étudier que pendant 3 mois, et a décidé d'enseigner à Thomas elle-même. Parallèlement, elle lui lisait des livres dont l’un était : « Guide rapide pour les écoles de sciences et philosophie expérimentale Richard Parker et le code Morse.

Probablement l'un des premiers circuits électriques il y avait un circuit électrique vivant composé de 180 soldats de Louis XV se tenant la main, qui frissonnaient sous la décharge d'une jarre de Leyde qui les traversait lors d'une expérience à la cour du roi.

De nombreuses unités de grandeurs physiques en génie électrique portent le nom de scientifiques. Mais il est intéressant de noter qu'un seul d'entre eux, Georg Ohm, a reçu cet honneur à deux reprises. Tout le monde connaît l'unité de mesure de la résistance « Ohm », mais il s'avère que dans certains pays la grandeur physique inverse de la résistance - la conductivité électrique - est mesurée en grandeurs appelées « Mo ».

En 1827, un Allemand nommé Georg Ohm, qui a ensuite acquis une renommée mondiale, n'a pas réussi l'examen et n'a pas été autorisé à enseigner la physique à l'école en raison d'un niveau de connaissances extrêmement faible et d'un manque de capacités pédagogiques.

Il est intéressant de noter que l'utilisation généralisée du courant alternatif, obtenus dans les années 30 du 19ème siècle, ils n'ont commencé que 70 ans plus tard ! Ils ont même tenté d’interdire la transmission du courant alternatif via des lignes électriques à haute tension. Parmi les « opposants au courant alternatif » se trouvait Thomas Edison !

Saviez-vous que dans certaines régions d'Amérique du Sud et d'Afrique là où il n’y avait pas d’électricité, on pouvait voir des bocaux en verre fermés remplis de lucioles à l’intérieur de la maison ! De telles « lampes » donnaient une lumière d’une luminosité enviable !

Tout le monde ne sait pas que Thomas Edison, étant le plus célèbre inventeur, qui a reçu 1 093 brevets d'invention rien qu'aux États-Unis et environ 3 000 dans d'autres pays, était également un entrepreneur à succès qui utilisait invariablement la devise dans son travail : « N'inventez jamais quelque chose pour lequel il n'y a pas de demande ».

Les scientifiques croient que nous pourrions tous observer à plusieurs reprises le mouvement des particules à une vitesse deux fois inférieure à celle de la lumière à travers un canal d'un diamètre de 1,27 cm. Cela se produit à chaque fois lors d'un éclair !

Le grand physicien Thomas Edison quelqu'un a demandé un jour : est-il nécessaire d'installer un paratonnerre sur une église en construction ?
« Certainement », a-t-il répondu. - Après tout, Dieu peut parfois être si inattentif.

Thomas Edison est connu sous le nom de le plus grand inventeur dans le monde entier. Il fit déposer 1 093 brevets, ce qui nous étonne encore un siècle plus tard. Mais le fait est que toutes les inventions ne lui appartiennent pas personnellement. Certaines des découvertes d'Edison appartiennent à ses techniques méconnues - et ses plus invention célèbre la lumière électrique n’était même pas fabriquée dans son laboratoire. Quatre décennies avant la naissance d'Edison, le scientifique anglais Sir Humphrey Davy a inventé l'éclairage à arc (utilisant un filament de carbone). Au fil des années, les chercheurs ont amélioré la découverte de Davey. Il y avait un problème : aucune des améliorations n'a brûlé pendant plus de 12 heures (en raison de la rupture du filament). La réussite d'Edison a été d'avoir sélectionné un fil approprié qui pouvait brûler pendant plusieurs jours. Il a fait très découverte importante, mais il n'était pas un pionnier.

Direction du mouvement du courant électrique

Si vous créez un circuit électrique à partir d'une source de courant, d'un consommateur d'énergie et des fils qui les relient, et que vous le fermez, le courant électrique circulera à travers ce circuit. Il est raisonnable de se demander : « Dans quelle direction ? Le manuel sur les fondements théoriques de l'électrotechnique donne la réponse : « Dans un circuit externe, le courant circule du plus de la source d'énergie vers le moins, et à l'intérieur de la source du moins vers le plus.
Est-ce vrai ? Rappelons que le courant électrique est le mouvement ordonné de particules chargées électriquement. Ceux-ci dans les conducteurs métalliques sont des particules chargées négativement - les électrons. Mais les électrons du circuit externe se déplacent exactement dans le sens inverse : du moins de la source vers le plus. Cela peut être prouvé très simplement. Il suffit de placer une lampe électronique - une diode - dans le circuit ci-dessus. Si l'anode de la lampe est chargée positivement, il y aura un courant dans le circuit, mais si elle est chargée négativement, il n'y aura pas de courant. Rappelez-vous que les charges différentes s’attirent et que les charges semblables se repoussent. Par conséquent, l’anode positive attire les électrons négatifs, mais pas l’inverse. Concluons que la direction du courant électrique dans la science du génie électrique est considérée comme la direction OPPOSÉE au mouvement des électrons.
Le choix d'une direction opposée à celle existante ne peut être qualifié que de paradoxal, mais les raisons d'un tel écart peuvent s'expliquer si l'on retrace l'histoire du développement de l'électrotechnique en tant que science.
Parmi les nombreuses théories, parfois même anecdotiques, tentant d'expliquer phénomènes électriques, apparus à l’aube de la science de l’électricité, nous nous concentrerons sur deux principaux.
Le scientifique américain B. Franklin a avancé la théorie dite unitaire de l'électricité, selon laquelle la matière électrique est une sorte de liquide en apesanteur qui pourrait s'écouler de certains corps et s'accumuler dans d'autres. Selon Franklin, le fluide électrique est contenu dans tous les corps et il ne s'électrifie que lorsqu'il y a un déficit ou un excès de fluide électrique. Un manque de liquide signifie une électrification négative, un excès signifie une électrification positive. C'est ainsi que le concept de positif et charge négative. Lorsque des corps chargés positivement se connectent à des corps chargés négativement, un fluide électrique (fluide) se déplace du corps avec montant augmenté liquides aux corps en quantité réduite. Comme dans les vases communicants. Avec la même hypothèse, le concept de mouvement des charges électriques - le courant électrique - est entré dans la science.
L'hypothèse de Franklin s'est avérée être diplôme le plus élevé fructueuse et anticipée sur la théorie électronique de la conductivité. Cependant, elle s'est avérée loin d'être parfaite. Le fait est que le scientifique français Dufay a découvert qu’il existe deux types d’électricité qui, chacun obéissant séparément à la théorie de Franklin, se neutralisent au contact. La raison de l'émergence d'une nouvelle théorie dualiste de l'électricité, avancée par Simmer sur la base des expériences de Dufay, était simple. Aussi étonnant que cela puisse paraître, au cours de plusieurs décennies d'expériences avec l'électricité, personne n'a remarqué que lorsqu'on frotte des corps électrifiés, non seulement le corps frotté, mais aussi le corps frottant est chargé. Autrement, l’hypothèse de Simmer ne se serait tout simplement pas concrétisée. Mais le fait qu’il soit apparu a sa propre justice historique.
Théorie dualiste croyait que les corps à l'état normal contiennent deux types de fluide électrique en quantités DIFFÉRENTES, se neutralisant. L'électrification s'expliquait par le fait que le rapport entre l'électricité positive et négative dans les corps changeait. Ce n’est pas très clair, mais il fallait en quelque sorte expliquer les phénomènes réels.
Les deux hypothèses ont expliqué avec succès les phénomènes électrostatiques fondamentaux et pendant longtemps rivalisaient les uns avec les autres. Historiquement, la théorie dualiste a anticipé la théorie ionique de la conductivité des gaz et des solutions.
Invention colonne voltaïque en 1799 et la découverte ultérieure du phénomène d'électrolyse ont permis de conclure que lors de l'électrolyse des liquides et des solutions qu'ils contiennent, deux directions opposées de mouvement des charges sont observées - positives et négatives. La théorie dualiste a triomphé, puisque lors de la décomposition, par exemple, de l'eau, on pouvait clairement voir que des bulles d'oxygène se dégageaient sur l'électrode positive et des bulles d'hydrogène sur l'électrode négative. Cependant, ici non plus, tout ne s’est pas bien passé. Lorsque l’eau se décomposait, la quantité de gaz libérée n’était pas la même. Il y avait deux fois plus d'hydrogène que d'oxygène. C’était déroutant. Comment n'importe quel écolier d'aujourd'hui pourrait-il aider les scientifiques de l'époque s'il savait que dans une molécule d'eau il y a deux atomes d'hydrogène pour un atome d'oxygène (le fameux H2O), mais les chimistes n'ont pas encore fait cette découverte.
Démocrate révolutionnaire A.I. Herzen, diplômé de la Faculté de physique et de mathématiques de l'Université de Moscou, a écrit que ces hypothèses n'aident pas, mais « font même un tort terrible aux étudiants, en leur donnant des mots au lieu de concepts, en tuant la question en eux avec une fausse satisfaction. "Qu'est-ce que l'électricité ?" - "Liquide en apesanteur." Ne vaudrait-il pas mieux que l’étudiant réponde : « Je ne sais pas » ? Pourtant, Herzen avait tort. En effet, dans la terminologie moderne, le courant électrique CIRCULE du plus au moins de la source, et ne se déplace pas autrement, et cela ne nous dérange pas du tout.
Des centaines de scientifiques différents pays a réalisé des milliers d'expériences avec une colonne voltaïque, mais seulement vingt ans plus tard, le scientifique danois Oersted a découvert action magnétique courant électrique. En 1820, son message fut publié selon lequel un conducteur porteur de courant affecte les lectures d'une aiguille magnétique. Après de nombreuses expériences, il donne une règle par laquelle on peut déterminer la direction de déviation de l'aiguille magnétique par rapport au courant ou le courant par rapport à la direction de l'aiguille magnétique. "Nous utiliserons la formule : le pôle qui voit l'électricité négative entrer au-dessus de lui est dévié vers l'est." La règle est si vague qu'une personne instruite moderne ne comprendra pas immédiatement comment l'utiliser, mais que dire de l'époque où les concepts n'étaient pas encore établis.
Par conséquent, Ampère, dans un ouvrage présenté à l'Académie des sciences de Paris, décide d'abord de prendre comme principale l'une des directions des courants, puis donne une règle permettant de déterminer l'effet des aimants sur les courants. On lit : « Comme je devrais constamment parler de deux directions opposées, le long duquel circulent les deux électricités, alors, afin d'éviter des répétitions inutiles, après les mots DIRECTION DU COURANT ÉLECTRIQUE, je désignerai toujours électricité POSITIF. C’est ainsi qu’a été introduite pour la première fois la règle désormais généralement acceptée de la direction du courant. Après tout, il restait encore plus de soixante-dix ans avant la découverte de l’électron.
La direction du courant dans toutes les règles impliquait le mouvement de particules chargées POSITIVEMENT.
Ce canon a ensuite été adopté par Maxwell, qui a proposé la règle du « bouchon » ou de la « vrille » pour déterminer la direction du champ magnétique de la bobine. Cependant, la question de la véritable direction du courant reste ouverte. Voici ce qu'écrivait Faraday : « Si je parle. que le courant vient de endroit positif au négatif, alors uniquement conformément à l'accord traditionnel, quoique dans une certaine mesure tacite, conclu entre scientifiques et leur fournissant un moyen constant, clair et précis, d'indiquer la direction des forces de ce courant.
Après ouverture induction électromagnétique Faraday (induction de courant dans un conducteur dans un champ magnétique changeant) a suscité la nécessité de déterminer la direction du courant induit. Cette règle a été donnée par l'éminent physicien russe E.H. Lenz. Il dit : « Si un conducteur métallique se déplace à proximité d'un courant ou d'un aimant, un courant galvanique y apparaît. La direction de ce courant est telle qu’un fil au repos commencerait à s’en déplacer, à l’opposé du mouvement réel. » Autrement dit, la règle se résumait à quelque chose comme « demandez conseil et faites le contraire ».
Les règles connues des sortants actuels sous le nom de « règle de la main gauche » et de « règle main droite" a été proposé dans sa forme finale par le physicien anglais Fleming et ils servent à MÉMORISER FACILEMENT phénomène physique physiciens, étudiants et écoliers, et ne pas leur tromper la tête.
Ces règles sont devenues largement acceptées dans la pratique et dans les manuels de physique, et après la découverte de l'électron, il faudrait beaucoup changer, et pas seulement dans les manuels, si la véritable direction du courant était indiquée. C’est ainsi que vit cette convention depuis plus d’un siècle et demi. Au début, cela n'a pas posé de difficultés, mais avec l'invention du tube à vide (ironiquement, Fleming a inventé le premier tube radio) et l'utilisation généralisée des semi-conducteurs, des difficultés ont commencé à surgir. Par conséquent, les physiciens et les électroniciens préfèrent parler non pas des directions du courant électrique, mais des directions de mouvement des électrons ou des charges. Mais l’électrotechnique fonctionne toujours avec d’anciennes définitions. Parfois, cela crée de la confusion. Des ajustements pourraient être apportés, mais cela entraînerait-il plus de désagréments que ceux existants ?

Essai d'ampoule
L'introduction des avancées scientifiques et technologiques dans la pratique quotidienne s'est souvent heurtée à une telle opposition que les partisans de la nouvelle technologie ont parfois dû recourir à la forme d'un procès avec des procureurs, des défenseurs et des juges pour prouver les avantages de la nouvelle technologie.
Étonnamment, il est vrai qu'à l'aide d'un procès, il a fallu prouver au grand public les avantages apparemment évidents de l'éclairage électrique.
A cet effet en mars 1879 Parlement anglais a créé une commission censée mettre fin aux rumeurs et aux rumeurs ridicules répandues par les opposants aux compagnies d'électricité et de gaz.
La commission avait des pouvoirs importants : elle avait le droit de citer tous les témoins qu'elle jugeait nécessaires, et avec les mêmes droits que le tribunal les convoque. L'enquête s'est déroulée de la même manière que enquête judiciaire. Le défendeur était l'électricité.
Des témoins ont témoigné concernant ses propriétés et ses actions, et des sténographes les ont enregistrés. Les membres de la commission occupaient les sièges des juges. La table des preuves était remplie de divers appareils électriques, avec lequel des expériences ont été immédiatement réalisées. Les murs étaient couverts de dessins et de schémas.
Le professeur de chimie L. Playfair a été élu président du tribunal. En observant strictement la procédure judiciaire, la commission a « interrogé » les témoins de la défense – Tyndall, Thomson, Preece, Siemens, Cook et d'autres.
Les arguments des témoins à charge étaient les suivants. Selon les artistes, lumière électrique"Froid et montre peu d'expression." Les dames anglaises trouvaient que cela donnait « une certaine mort au visage et, en outre, rendait difficile le choix des vêtements, car les costumes éclairés par la lumière électrique semblaient différents de ceux du soir ».
Les commerçants du marché de Billingsset se sont plaints du fait que « la lumière électrique donne une mauvaise apparence aux poissons et ont demandé de retirer l’éclairage qu’ils avaient installé ». Beaucoup se sont plaints de douleurs aux yeux et de lumières vacillantes. Les témoins de la défense ont patiemment expliqué qu'il ne faut pas regarder les lanternes, mais les objets qu'elles éclairent, que regarder directement le soleil est encore plus douloureux, mais personne ne le blâme soleil. Que la mort du visage ne se remarque que « lorsque la lumière du gaz est mélangée à la lumière électrique ». Que le « clignotement » de l'arc dans les lampes est causé par des électrodes mal fabriquées. Etc. etc.
Dans son verdict, la commission a décidé que l'éclairage électrique avait quitté le domaine des expériences et des essais et devait avoir la possibilité de concurrencer l'éclairage au gaz. La commission a interdit le transfert de l’éclairage électrique aux sociétés gazières, « comme incompétentes en matière d’électrotechnique ».
Quant à l'efficacité, l'électrotechnique avait encore un long chemin à parcourir - vers la création de centrales électriques, de lignes électriques et d'appareillages de commutation.

Faits intéressants de l'histoire de la création et de l'exploitation d'un compteur électrique

La plus grande invention du XIXe siècle fut celle de la « méthode d’invention ». Cet aphorisme du mathématicien et philosophe anglais Alfred Nord Whitehead (1891-1947) reflète parfaitement l'histoire de la création du compteur électrique, qui s'améliore à chaque nouvelle invention qui se succède, basée sur réalisations scientifiques et stimuler le développement ultérieur.

La première moitié du XIXe siècle apporte de brillantes découvertes dans le domaine de l’électromagnétisme. En 1820, le Français André-Marie Ampère (1775-1836) découvre le phénomène d'interaction des courants électriques. En 1827, l'Allemand Georg Simon Ohm (1787-1854) établit la relation entre l'intensité du courant et la tension dans les conducteurs. En 1831, l'Anglais Michael Faraday (1791-1867) découvre la loi de l'induction électromagnétique, qui sous-tend le principe de fonctionnement des générateurs, moteurs et transformateurs.

Il n’est pas surprenant que, lorsque le moment est venu, des inventions clés soient réalisées presque simultanément dans différentes parties Sveta. Le Hongrois Otto Titus Blathy, inventeur du compteur à induction et co-inventeur du transformateur, évoquait cette période passionnante des années 1930 : « À mon époque, c'était comme si la science était facile. forêt tropicale. Tout ce dont vous aviez besoin était une bonne hache, et partout où vous la frappiez, elle pourrait abattre un énorme arbre.

Avec l'invention de la dynamo (Anjos Jedlik en 1861, Werner von Siemens en 1867), il devint possible de produire de l'électricité en grandes quantités. Le premier domaine d’utilisation généralisée de l’électricité était l’éclairage. Mais lorsqu’ils ont commencé à vendre de l’électricité, il est devenu nécessaire d’en déterminer le prix. Cependant, il n'était pas clair dans quelles unités les enregistrements devaient être conservés et quels principes de mesure seraient les plus pratiques.

Le premier compteur électrique fut le compteur horaire à lampe de Samuel Gardiner (USA), breveté en 1872. Il mesurait le temps pendant lequel l'électricité était fournie à un point de charge, toutes les lampes connectées à ce compteur étant contrôlées par un seul interrupteur. Avec l'avènement de l'ampoule d'Edison, des circuits d'éclairage de dérivation ont commencé à être pratiqués et un tel compteur est tombé en désuétude.

Compteurs électrolytiques

Thomas Alva Edison (1847-1931), inventeur des premiers réseaux de distribution d'éclairage électrique CC, a fait valoir que l'électricité devrait être vendue sous forme de gaz - alors largement utilisée à des fins d'éclairage.

Le « compteur électrique » d'Edison, breveté en 1881, utilisait l'effet électrochimique du courant. Il contenait une cellule électrolytique dans laquelle une plaque de cuivre précisément pesée était placée au début de la période de calcul. Le courant traversant l’électrolyte provoque le dépôt de cuivre. À la fin de la période de calcul, la plaque de cuivre a été à nouveau pesée et la différence de poids reflétait la quantité d'électricité qui la traversait. Ce compteur était calibré pour que les factures puissent être émises en pieds cubes de gaz.

De tels compteurs ont continué à être utilisés jusqu'à la fin du XIXe siècle. Cependant, ils présentaient un gros inconvénient : la lecture des relevés était difficile pour l'entreprise énergétique et totalement impossible pour le consommateur. Edison a ensuite ajouté un mécanisme de comptage pour faciliter la lecture du compteur.

Il existait d'autres compteurs électrolytiques, comme le compteur d'hydrogène de la société allemande Siemens Shuckert et le compteur de mercure de la verrerie Schott&Gen.Jena. Mais les compteurs électrolytiques ne pouvaient mesurer que des ampères-heures et n'étaient pas adaptés aux fluctuations de tension.

Compteurs pendulaires

Un autre principe de conception possible pour les compteurs était de créer une sorte de mouvement (oscillation ou rotation) proportionnel à l'énergie, qui à son tour pourrait déclencher un mécanisme de comptage pour afficher les relevés du compteur.

Le principe de fonctionnement d'un compteur pendulaire a été décrit par les Américains William Edward Airton et John Perry en 1881. En 1884 en Allemagne, ignorant leur invention, Hermann Aron (1845-1902) conçoit un compteur pendulaire.

Un modèle plus avancé de ce compteur avait deux pendules avec des bobines sur chacun connectées à une source de tension. Deux bobines de courant à enroulements opposés ont été placées sous les pendules. En raison de l'interaction des bobines, l'un des pendules se déplaçait plus lentement et l'autre plus rapidement que sans charge électrique. Cette différence de course était transmise au mécanisme de comptage du compteur. Les pendules changeaient de rôle toutes les minutes pour compenser la différence de fréquence d'oscillation d'origine. Au même moment, le mouvement d'horlogerie s'est remonté. Mais ces compteurs étaient coûteux car ils contenaient deux mécanismes d'horlogerie, et ils furent progressivement remplacés par des compteurs à moteur. Le compteur pendulaire pouvait mesurer des ampères-heures ou des wattheures, mais ne pouvait être utilisé que pour les réseaux à courant continu.

Compteurs de moteur

Une autre alternative pour créer un compteur électrique était d’utiliser un moteur. Dans de tels compteurs, le couple est proportionnel à la charge et est équilibré par le contre-couple, donc la vitesse du rotor est proportionnelle à la charge, tandis que les couples sont en équilibre. En 1889, l’Américain Elihu Thomson (1853-1937) développe son « Recording Wattmeter » pour la société General Electric.

Il s'agissait d'un moteur avec une armature sans noyau métallique, qui était démarré par une tension électrique traversant une bobine et une résistance à l'aide d'un commutateur. Le stator était entraîné par le courant et le couple était donc proportionnel au produit de la tension et du courant. Le couple de freinage était assuré par un électroaimant permanent, qui agissait sur un disque en aluminium fixé à l'armature. Ce type de compteur était principalement utilisé pour le courant continu. Le gros inconvénient des compteurs électriques à moteur était le collecteur.

Invention des transformateurs

À l’époque où la distribution de l’énergie électrique venait tout juste de commencer, on ne savait toujours pas quels systèmes seraient les plus efficaces : les systèmes à courant continu ou les systèmes à courant alternatif. Cependant, un inconvénient important des systèmes à courant continu est rapidement apparu : la tension ne pouvait pas être modifiée et il était donc impossible de créer des systèmes plus grands. En 1884, le Français Lucien Gaulard (1850-1888) et l'Anglais John Dixon Gibbs inventent le « générateur secondaire », prédécesseur du transformateur moderne. En pratique, le transformateur a été développé et breveté pour la société Ganz en 1885 par trois ingénieurs hongrois - Karoly Cypernovsky, Otto TitutsBlati et Miksa Deri. La même année, Westinghouse rachète le brevet à Gholar et Gibson, et William Stanley (1858-1916) améliore la conception. George Westinghouse (1846-1914) a également acquis les brevets de Nikola Tesla pour l'utilisation du courant alternatif. Cela a permis d'utiliser des systèmes électriques à courant alternatif. À partir du 20e siècle, ils ont progressivement remplacé les systèmes à courant continu.

Pour comptabiliser l'électricité, il fallait résoudre nouvelle tâche– mesure de l’électricité en courant alternatif.

Compteurs à induction

En 1885, l'Italien Galileo Ferraris (1847-1897) fit la découverte importante que deux champs de courant alternatif déphasés pouvaient faire tourner un rotor solide, tel qu'un disque ou un cylindre. En 1888, indépendamment de lui, l’américain-croate Nikola Tesla (1857-1943) découvrit également un champ électrique tournant. Shellenberger a également découvert accidentellement l'effet des champs tournants en 1888 et a développé un compteur électrique pour le courant alternatif. Le moment antagoniste a été créé par un mécanisme à vis. Ce type de compteur ne disposait pas d'un élément de tension pour tenir compte du facteur de puissance, il n'était donc pas adapté à une utilisation avec des moteurs électriques. Ces découvertes ont servi de base à la création de moteurs à induction et ont ouvert la voie aux compteurs à induction.

En 1889, le Hongrois Otto Titutz Blati (1860-1939), alors qu'il travaillait pour l'usine Ganz à Budapest, en Hongrie, a breveté son « compteur électrique pour courants alternatifs » (brevet allemand n° 52 793, brevet américain n° 423 210).

Comme décrit dans le brevet, « ce compteur est essentiellement constitué d'un corps métallique rotatif, tel qu'un disque ou un cylindre, qui est soumis à deux champs magnétiques déphasés l'un par rapport à l'autre. Ce déphasage résulte du fait qu'un champ est généré par le champ magnétique principal. courant, tandis qu'un autre champ est formé en raison d'une bobine à forte auto-induction, shuntant les points du circuit entre lesquels l'énergie consommée est cependant mesurée. champs magnétiques ne se croisent pas dans le corps de rotation, comme dans le mécanisme bien connu de Ferrari, mais traversent ses différentes parties, indépendamment les unes des autres. »

Avec cet appareil, Blati a pu obtenir un déphasage interne de presque exactement 90°, de sorte que le compteur affichait plus ou moins correctement les watts. Le compteur utilisait un électro-aimant de freinage pour fournir une large plage de mesure et comprenait également un registre cyclométrique. La même année, la société Ganz démarre la production. Les premiers compteurs étaient montés sur un socle en bois, faisaient 240 tours par minute et pesaient 23 kg. En 1914, le poids était tombé à 2,6 kg. En 1894, Oliver Blackburn Shellenberger (1860-1898) développa un wattheuremètre à induction pour la société Westinghouse. Dans celui-ci, les bobines de courant et de tension étaient situées sur côtés opposés disque, et deux aimants permanents ralentissaient le mouvement de ce disque. Ce comptoir était également grand et lourd, pesant 41 livres. Il y avait un mécanisme de comptage de tambours.

En 1899, Ludwig Gutmann, travaillant pour Sangamo, a développé le wattheuremètre d'énergie active AC de type "A". Le rotor était constitué d'un cylindre avec une fente en spirale située dans les domaines des bobines de tension et de courant. Un disque fixé au bas du cylindre était utilisé pour le freinage par aimant permanent. L'ajustement du facteur de puissance n'a pas été fourni.

Autres améliorations

Au cours des années suivantes, de nombreuses améliorations ont été apportées : réduction du poids et de la taille, élargissement de la plage de charge, compensation des changements de facteur de charge, de contrainte et de température, élimination des frottements en remplaçant les butées par des roulements à billes, puis des doubles roulements à pierre et magnétiques, et prolonger la vie fonctionnement stable en améliorant caractéristiques de qualitéélectro-aimants de freinage et élimination de l'huile de l'isopore et du mécanisme de comptage. Au siècle suivant, des compteurs à induction triphasés avaient été développés utilisant deux ou trois systèmes de mesure montés sur un, deux ou trois disques.

Nouvelle fonctionnalité Les compteurs à induction, également connus sous le nom de compteurs Ferraris, et les compteurs basés sur les principes des compteurs Blathy sont toujours produits en grandes quantités et effectuent l'essentiel des travaux de mesure de l'énergie, en raison de leur faible coût et de leur excellente fiabilité.

Avec la généralisation de l'électricité, le concept de compteur électrique multitarif avec local ou local télécommande, compteur de charge maximale, compteur d'électricité prépayé et Maxigraph.

Le premier système de contrôle des pulsations a été breveté en 1899 par le français César René Lubery, et il a été amélioré par de nombreuses entreprises : Compagniedes Compteurs (plus tard Schlumberger), Siemens, AEG (AEG), Landis & Gyr, Zellweger et Sauter et BrownBoveri - pour ne citer qu'eux. quelques.

En 1934, Landis & Gyr a développé le compteur Trivector, qui mesure l'énergie active et réactive ainsi que la consommation électrique.

Compteurs électroniques et télérelève

La période remarquable de développement initial des compteurs a pris fin. Comme le dit Blaty, poursuivant sa métaphore : « Maintenant, vous vous promenez pendant des jours sans même tomber sur un buisson. »

La technologie électronique n’a trouvé sa place dans le comptage d’énergie que lorsque les premiers circuits intégrés analogiques et numériques sont apparus dans les années 1970. Cela peut être facilement compris si l'on pense à la consommation d'énergie limitée dans le boîtier fermé du compteur électrique et à la fiabilité attendue. La nouvelle technologie a donné nouvelle poussée au développement des compteurs électriques. Tout d’abord, des compteurs stationnaires précis ont été développés, utilisant principalement le principe de multiplication d’impulsions temporelles. Les cellules Hall ont également été utilisées, principalement pour les compteurs d'électricité commerciaux et résidentiels. Dans les années 1980, des compteurs hybrides ont été développés, composés de compteurs à induction et d'unités tarifaires électroniques. Cette technologie est utilisée depuis relativement peu de temps.

Mesures à distance

L’idée du relevé des compteurs à distance remonte aux années 1960. Initialement, la transmission d'impulsions à distance était utilisée, mais progressivement, divers protocoles et moyens de transmission de données ont commencé à être utilisés à la place.

Actuellement, les compteurs dotés de fonctionnalités avancées sont basés sur les dernières technologies électroniques, utilisant le traitement du signal numérique, la plupart des fonctions étant assurées par un logiciel intégré.

Normes de mesure et précision

La nécessité d’une coopération étroite entre les fabricants et les sociétés énergétiques a été reconnue relativement tôt. Premier étalon de mesure, American Code C12 Institut National Les normes (ANSI) pour mesurer l’électricité ont été élaborées dès 1910. Son avant-propos précise : « Même si ce Code s’appuie naturellement sur des principes scientifiques et techniques, nous avons toujours été conscients de la grande importance de l’aspect commercial de la mesure. »

Le premier étalon de mesure connu de la Commission électrotechnique internationale (CEI), édition 43, remonte à 1931.

Le haut niveau de précision est caractéristique distinctive, que l'industrie de la mesure a établi et continue de maintenir. Déjà en 1914, des prospectus décrivaient des compteurs avec une précision de 1,5 % avec une plage de mesure de 10 % ou moins à 100 % du courant maximum. La norme CEI 43:1931 spécifie la classe de précision 2.0. Ce niveau de précision est encore aujourd’hui considéré comme satisfaisant pour la plupart des compteurs à usage résidentiel, même les compteurs fixes.



Avez-vous aimé l'article? Partagez avec vos amis !