Acceuil Philosophie I & II Religions Sciences Liens
                                            

Contact us

Ajouter aux favoris

 

Les sciences

 

 

  En cours d'élaboration

Ariès (Philippe) (Blois, 1914 ­ Toulouse, 1984), historien français spécialisé dans l’histoire des mentalités: Histoire des populations françaises et de leurs attitudes devant la vie depuis le XVIIIe siècle (1948), l’Enfant et la vie familiale sous l’Ancien Régime (1960), Images de l’homme devant la mort (1983).

 

Baade (Walter), astronome américain d’origine allemande (Schröttinghausen, Westphalie, 1893 ­ Göttingen, 1960), connu pour sa détermination de la structure de la Voie lactée, pour ses mesures de la distance de différentes galaxies et pour l’identification d’étoiles individuelles dans la nébuleuse d’Andromède. Il a contribué à l’étude des sources radioastronomiques.

 

Babbage (Charles) (Teignmouth, 1792 ­ Londres, 1871), mathématicien anglais; il a construit l’une des premières machines à calculer.

 

béhaviorisme ou behaviourisme PSYCHO Doctrine, élaborée à partir de 1913 aux É.-U. par J. B. Watson, qui propose de substituer une psychologie du comportement à une psychologie introspective qui cherchait à décrire et à expliquer les «états de conscience».

 

Bernoulli (Jean Ier) (Bâle, 1667 ­ id., 1748), mathématicien suisse; il poursuivit avec son frère Jacques Ier, puis, après sa brouille avec celui-ci, avec ses fils, les travaux d’analyse mathématique de Leibniz (calculs différentiel et intégral).

 

corpuscule PHYS Vx Minuscule élément de matière.

corpusculaire adj. PHYS NUCL. Dimensions corpusculaires. ¶ Théorie corpusculaire, fondée sur la discontinuité de la matière et de l’énergie.

 

cosmochimie

 Les poussières interstellaires représentent environ 2 % de la masse totale de la Galaxie. Leur dimension est de l’ordre de 0,1 micromètre. Une grande partie des éléments lourds (fer, aluminium, silicium) présents dans le milieu interstellaire se condense sur ces grains de poussières, qui jouent le rôle de catalyseurs. Alors se forment des combinaisons chimiques. Le radical CH (carbone-hydrogène) fut le premier découvert, en 1937, suivi de CN (carbone-azote) en 1940. Parmi les plus importantes molécules, dont probablement le rayonnement cosmique (flux de protons d’une grande énergie) permet la synthèse, citons l’alcool méthylique, le formaldéhyde, l’acide formique, l’acide cyanhydrique, l’acétylène et l’éther; trois d’entre elles sont particulièrement importantes (H2CO, HCN, HC3N), car elles interviennent dans la synthèse des acides aminés, à l’origine de la vie.

 

couleur Phys. ­ Un corps apparaît coloré parce qu’il ne diffuse et ne réfléchit qu’une partie de la lumière blanche qu’il reçoit, ou parce qu’il émet lui-même de la lumière s’il est porté à une température suffisante. On peut décomposer une lumière blanche à l’aide d’un prisme; les couleurs fondamentales sont le rouge, l’orangé, le jaune, le vert, le bleu, l’indigo et le violet. Deux couleurs dont la superposition donne la teinte blanche sont appelées complémentaires (par ex. le violet est la couleur complémentaire du jaune). Une couleur quelconque peut être créée à partir des trois couleurs primaires (le rouge, le jaune et le bleu) ou de leurs couleurs complémentaires. C’est le principe de la quadrichromie, utilisé dans l’imprimerie, la photographie, le cinéma et la télévision.

 

courbure

 

 Courbure de l’Univers. La loi d’attraction universelle s’explique en relativité générale par la courbure de l’espacement (à quatre dimensions). La distance entre deux points dépend de leur position dans l’espace et dans le temps, de la vitesse de la lumière, d’un facteur d’échelle et d’un coefficient: égal à 1 (courbure positive, espace fini à géométrie sphérique), égal à 0 (courbure nulle, espace euclidien) ou égal à - 1 (courbure négative, espace hyperbolique).

 

cristal

 Un cristal est composé d’un assemblage d’atomes, d’ions ou de molécules régulièrement répartis selon les trois directions de l’espace. On distingue les cristaux: à liaisons covalentes (diamant: atomes de carbone liés par covalence); à liaisons ioniques (chlorure de sodium: ions Cl- et sodium Na+); à liaisons faibles de Van der Waals (hydrogène: molécules H2); à liaisons métalliques (cuivre: ions Cu+). Un cristal est un solide limité naturellement par des faces planes. La forme géométrique la plus simple qui, par glissement, permet de reproduire l’ensemble du cristal définit sa maille élémentaire. On a observé depuis longtemps (Haüy, 1784) que, pour chaque espèce cristalline, les angles entre les faces limitantes étaient constants. Si un rayon lumineux est dirigé obliquement vers une surface non opaque, une partie de la lumière est réfléchie tandis que l’autre pénètre dans le solide (rayon réfracté). Dans certains cristaux anisotropes, la lumière est divisée en deux rayons, qui vibrent perpendiculairement l’un par rapport à l’autre et se déplacent à des vitesses différentes; ils ont donc des indices de réfraction différents. La biréfringence de tels cristaux permet de les identifier. Les rayons X qui traversent un cristal sont diffractés par les plans réticulaires dus à l’arrangement des atomes. Chaque espèce minérale possède un diagramme de rayons X caractéristique. Les minéraux conducteurs de l’électricité sont ceux qui possèdent des liaisons métalliques. Comme les propriétés optiques, la conductivité varie selon les directions cristallographiques. Dans certains minéraux non conducteurs, on peut induire un champ électrique par changement de température, pyroélectricité, ou par des pressions dirigées, piézoélectricité. Si l’on introduit (dopage) des impuretés dans divers cristaux (silicium, germanium), on obtient des semiconducteurs. L’étude des cristaux relève de la minéralogie mais aussi de la physique du solide.

 

 

 Cristal liquide. ­ Un cristal liquide correspond à un état particulier de la matière: l’état mésomorphe (mot d’origine grecque signifiant «de forme intermédiaire»). En effet, il possède certaines propriétés des liquides (fluidité, coalescence des gouttes par contact) et des solides cristallins. L’état mésomorphe peut être obtenu par simple variation de température d’un composé pris à l’état pur ou par dissolution du composé dans un solvant, à température constante. Dans le premier cas, la température doit être intermédiaire entre la température de fusion du solide et la température de liquéfaction. L’examen aux rayons X des cristaux liquides montre que l’arrangement des molécules est intermédiaire entre l’agencement régulier (dans les trois directions de l’espace) des cristaux et le désordre des liquides. Le parallélisme des molécules explique l’anisotropie des cristaux liquides; la fluidité est due à la mobilité, relative, des centres de masse des molécules. L’association de l’anisotropie (en particulier, pour les propriétés optiques) et de la fluidité a deux grandes utilisations: 1. affichage de grandeurs numériques par les cristaux dits nématiques: la transmission optique du cristal liquide est modifiée par un champ électrique; 2. mesure des températures (thermomètres digitaux, thermographie cutanée, etc.).

 

cryoélectronique adj. et n. f. ELECTRON Partie de l’électronique qui utilise les supraconducteurs.

 

cytologie La cytologie se divise en plusieurs disciplines. La cytochimie étudie la localisation des divers constituants chimiques de la cellule; la cytogénétique s’intéresse au matériel génétique (acides nucléiques) de la cellule. La cytomorphologie, qui utilise le microscope électronique, décrit les structures cellulaires. La cytophysiologie étudie la physiologie des organites cellulaires. La cytologie est fondamentale en médecine pour établir un diagnostic. 

 

Darwin (Charles) (Shrewsbury, Shropshire, 1809 ­ Down, Kent, 1882), naturaliste anglais, le père des théories modernes sur l’évolution des êtres vivants (De l’origine des espèces, par voie de sélection naturelle, 1859; la Descendance de l’homme et la sélection sexuelle, 1871).

 

datation La datation peut se faire par diverses méthodes. Les unes permettent d’établir l’ancienneté d’un objet par rapport à un autre; les autres de déterminer l’âge de l’objet étudié. Elles sont toutes fondées sur des phénomènes cycliques: les anneaux concentriques formés annuellement dans le tissu ligneux d’un arbre lors de sa croissance, la vitesse de dépôt des sédiments, des dépôts dus à la fonte des anciens glaciers, les fluctuations de niveau d’une mer ou d’un lac, la stratigraphie, la typologie, la paléontologie, les pollens fossiles (palynologie), l’étude du géomagnétisme, la thermoluminescence (pour déterminer la date de cuisson d’une céramique). On dosera les traces que certains éléments radioactifs ont laissées lors de leur désintégration. Ainsi la datation par le carbone 14 est possible parce que le carbone naturel renferme (en très faible pourcentage) un isotope radioactif de masse atomique 14 (¹4C) dont la période est d’environ 5700 ans. Toute matière organique contient donc du ¹4C. La recherche de sa proportion dans un composé carboné (cendres de bois, par ex.) et la connaissance de la proportion qu’il contenait au moment où il faisait partie d’un organisme vivant permettent de fixer la date de la mort de cet organisme. Une découverte récente, utilisant le couple uranium-thorium, aurait toutefois permis d’établir que la datation par le ¹4C n’est plus fiable quand les fossiles dépassent 9000 ans. Des méthodes analogues utilisent l’uranium, le potassium 40 dans la méthode dite du potassium-argon (période d’env. 1,3 milliard d’années) et le rubidium 87 (période de 47 milliards d’années env.); le couple rubidium-strontium a permis de calculer l’âge des pierres lunaires rapportées sur Terre (3,2 à 4,6 milliards d’années).

 

Deimos, l’un des deux satellites de Mars, de forme ovoïdale (15 km sur 11 km), gravitant à 20000 km de la surface de la planète.

 

désoxyribonucléique L’A.D.N. constitue le support biochimique de l’hérédité et joue un rôle essentiel dans la synthèse des protéines spécifiques. Son existence a été découverte à la fin du XIXe s. grâce aux travaux de Miescher, Altmann et Kossel; ses fonctions ont été mises en évidence par les expériences de Beadle et Tatum sur la moisissure du pain, Neurospora crassa (1954). Un schéma de structure hélicoïdale a été proposé par Crick et Watson (1953); dans ce schéma, les macromolécules d’A.D.N. affectent la forme d’un long escalier en spirale pouvant grouper entre 3 et 10 millions de nucléotides. L’A.D.N. est constitué par 4 bases: adénine et thymine, guanine et cytosine, reliées deux à deux par une liaison hydrogène labile qui permet le dédoublement des chaînes pendant la mitose. La quantité d’A.D.N. présente dans chaque noyau est constante pour une espèce donnée et constitue 70 à 90 % du poids sec du noyau. V. aussi chromosome, nucléique et code (génétique).

 

dilatation Les liquides se dilatent plus que les solides. On appelle coefficient de dilatation linéaire d’un corps, entre les températures to et t1, l’allongement de ce corps par unité de longueur et par degré d’élévation de température. Il est égal à 1,2 . 10-5 pour l’acier, à 3,1 . 10-5 pour le zinc et à 0,9 . 10-5 pour le verre ordinaire, entre 0 et 100 °C. En première approximation, le coefficient de dilatation volumique (accroissement du volume par unité de volume) des gaz ne dépend pas de leur nature spécifique (loi de Gay-Lussac). Pour les gaz parfaits, il est égal à 1/273,15.

 

dinosaure On divise les dinosaures en deux ordres: les avipelviens, au bassin comparable à celui des oiseaux, possédaient un bec corné (ex.: Iguanodon, Triceratops); les sauripelviens avaient un bassin de type reptilien (ex.: Diplodocus, Tyrannosaurus). Leur extinction brutale fait l’objet de diverses interprétations. 

 

eau

  Chim. ­ Le volume d’eau contenu dans les océans (1 milliard de km³) constitue 97 % de nos ressources en eau. L’eau naturelle est un mélange d’eau, d’eau lourde D2O et d’eau mixte DHO (ces deux dernières en proportions très faibles). Elle se solidifie à 0 °C et bout à 100 °C sous la pression atmosphérique normale. À partir de 1200 °C, l’eau se dissocie en hydrogène et en oxygène. Elle intervient dans de très nombreuses réactions chimiques (oxydation, réduction, hydrolyse). Elle se fixe sur certains corps en donnant des hydrates. La purification de l’eau s’effectue dans des échangeurs d’ions ou en utilisant des produits qui détruisent les matières organiques et les bactéries (ozone, chlore, eau de Javel).

 

 Biol. ­ L’eau est un constituant essentiel des cellules animales et végétales (70 % en moyenne chez les animaux). Dans un être vivant, on distingue l’eau libre, qui constitue le moyen de transport de nombreuses substances (dans le sang, par ex.), l’eau liée (par adsorption, imbibition ou capillarité) et l’eau de constitution ou intramoléculaire, qui est intégrée dans des molécules. ­ Cycle de l’eau: sous l’action du soleil, l’eau des mers, des océans et des lacs s’évapore et retombe en précipitations. L’eau retombée, pour une part, retourne à son origine ou dans la nappe phréatique, par ruissellement ou drainage, pour une autre part, se trouve absorbée par les végétaux et les êtres animés, et s’évapore.

 

ébullition Un liquide entre en ébullition lorsque la pression de sa vapeur saturante est égale à la pression qu’il supporte. La température à laquelle se produit ce phénomène (point d’ébullition) reste constante et dépend donc de la pression; ainsi, à une altitude élevée, le point d’ébullition de l’eau est inférieur à 100 °C. Dans les conditions normales de pression, l’hélium a pour température d’ébullition - 268,9 °C; l’air, -190 °C; l’alcool éthylique, 78,5 °C; l’eau, 100 °C; le mercure, 357 °C; le platine, 3830 °C.

 

écliptique L’écliptique est incliné en moyenne de 23° 27’ sur le plan de l’équateur. L’intersection de ces deux plans détermine la ligne des équinoxes; la ligne des solstices, située dans l’écliptique, étant perpendiculaire à celle des équinoxes.

 

électricité

 Dès le VIe s. av. J.-C., les Grecs constatèrent que l’ambre frotté attirait de nombreux corps légers. Au XVIIIe s., on montra qu’on peut faire apparaître par frottement deux sortes d’électricité, baptisées positive et négative, et l’on parvint ainsi au concept de charge électrique: des objets chargés se repoussent ou s’attirent selon qu’ils portent des charges de même signe ou de signes contraires. La loi fondamentale de cette interaction, dite électrostatique, homologue de la gravitation universelle de Newton, fut établie en 1785 par Coulomb. À partir de 1800, la pile de Volta permit de réaliser les premiers courants électriques. À la suite de l’expérience réalisée en 1820 par Œrsted et analysée par Laplace et Ampère, on découvrit les actions dites électrodynamiques qui s’exercent entre les courants et on établit que le champ magnétique créé par un courant est proportionnel à l’intensité de celui-ci, c.-à-d. à la charge qu’il transporte par unité de temps. L’étude des courants électriques (électrocinétique) fut complétée en 1826 par Ohm, qui établit la relation entre l’intensité traversant un conducteur et la différence de potentiel aux bornes de celui-ci et définit ainsi la notion de résistance. En 1831, Faraday dégagea le concept de force électromotrice et établit les lois du phénomène d’induction électromagnétique, ouvrant ainsi la voie aux applications techniques de l’électricité (générateurs, dynamos, transformateurs, etc.) dont l’étude constitue l’électrotechnique. En 1841, Joule établit les lois régissant le dégagement de chaleur dans un conducteur (effet Joule). En 1864, Maxwell prédit l’existence des ondes électromagnétiques (mises en évidence expérimentalement en 1885 par Hertz) et montra l’unité profonde de l’électrostatique et du magnétisme, fondant ainsi l’électromagnétisme. À la fin du XIXe s., la découverte de l’électron ouvrit la voie aux réalisations ultérieures de l’électronique. On distingue fondamentalement: l’électrostatique, qui traite de l’ensemble des phénomènes dus à la présence de charges électriques immobiles, et l’électrocinétique, qui traite plus particulièrement des phénomènes que provoque le déplacement de ces charges. Les interactions entre champ magnétique et courant électrique sont exclues de l’électrocinétique; leur étude constitue l’électrodynamique. L’électrocinétique montre qu’un courant électrique se produit lorsqu’on réunit par un conducteur deux points qui se trouvent à des potentiels différents. Le passage de ce courant s’accompagne d’un dégagement de chaleur (effet Joule) et d’un effet électromagnétique. L’intensité d’un courant est la quantité d’électricité qui traverse un conducteur pendant un temps limité. Elle s’exprime en ampères, cette unité étant définie par l’interaction (produite par effet magnétique) de deux conducteurs parcourus par un courant. La résistance qu’oppose un conducteur au passage d’un courant électrique s’exprime en ohms; elle dépend de la longueur l, de la section S et de la résistivité  du conducteur:

R =  × s. La résistivité des métaux purs est très faible (de l’ordre de

10-8 ohms-mètres). Celle des isolants est, en revanche, très élevée (105 à 10¹6 ohms-mètres). La différence de potentiel (d.d.p.) que l’on constate entre deux points d’un conducteur parcouru par un courant électrique correspond au rapport de l’énergie abandonnée et de la quantité d’électricité mise en jeu. Elle s’exprime par la loi d’Ohm: U = R × I (U en volts, R en ohms et I en ampères). La puissance calorifique dissipée est donnée par la loi de Joule: P = RI² (P en watts). Dans le cas d’un circuit fermé comprenant des résistances, des générateurs montés en série, on utilise la loi de Pouillet généralisée:  E -  E’ = I ×  R,  E étant la somme des forces électromotrices (f.é.m.) des générateurs,  E’ celle des forces contre-électromotrices des récepteurs,  R celle des résistances internes des générateurs et des récepteurs, ainsi que des autres résistances.

 

 Sur le plan pratique, l’électricité joue un rôle considérable; l’énergie électrique, facile à transporter et à distribuer, a révolutionné les moyens de production et la vie de l’homme. Représentant environ le tiers de l’énergie consommée, elle est produite, dans des centrales électriques, par transformation d’énergie thermique, hydraulique ou nucléaire. Cette opération se fait par l’intermédiaire de générateurs de courant continu ou d’alternateurs. Si l’énergie thermique est de plus en plus produite par le pétrole, bientôt la production d’énergie électrique au moyen de piles solaires, de piles à combustibles, de générateurs magnétohydrodynamiques, à fusion nucléaire, etc., sera cause de progrès considérable en ce domaine. L’énergie électrique est transportée quelquefois par des courants continus, le plus souvent par des courants alternatifs. L’électricité a rendu possible la mise au point de moteurs électriques très variés, et les usages industriels de l’électricité sont extrêmement divers. Ainsi, les phénomènes électrostatiques permettent le dépoussiérage des fumées d’usine, la peinture électrostatique, la photocopie, la concentration du faisceau électronique d’un tube cathodique de téléviseur, etc. L’électricité est la base des procédés d’électroformage, d’électroérosion, d’usinage par jet de plasma et par faisceau d’électrons. L’éclairage sous toutes ses formes est dû à l’électricité. Les transports constituent un champ d’application immense de l’électricité, qu’il s’agisse de traction électrique, de signalisation, de communication, de l’automobile, de l’aviation ou de la marine. Les utilisations domestiques sont multiples (électroménager).

 

électrochimie

 Lorsqu’on plonge deux électrodes dans un milieu liquide conducteur et qu’on établit une différence de potentiel entre elles, on crée dans ce liquide un champ électrique sous l’influence duquel les ions existant dans ce milieu tendent à migrer vers les électrodes: les ions négatifs ou anions vers l’anode; les ions positifs ou cations vers la cathode. D’autre part, on peut observer, dans le voisinage immédiat des électrodes, des réactions électrochimiques d’oxydoréduction: la cathode, source d’électrons, se comporte comme un réducteur; inversement, l’anode, aride d’électrons se comporte comme un oxydant à l’égard du milieu conducteur. Les applications de l’électrochimie sont très importantes, aussi bien en laboratoire (méthodes d’analyse qualitative et quantitative extrêmement précises) que dans l’industrie. Dans ce dernier domaine, les deux phénomènes inverses sont très exploités: 1. la conversion de l’énergie électrique en énergie chimique, ou électrolyse, reçoit de nombreuses applications; 2. la conversion de l’énergie chimique en énergie électrique se fait grâce à des convertisseurs, qui sont le siège, ou bien de réactions chimiques réversibles (accumulateurs, que l’on peut recharger), ou bien de réactions chimiques irréversibles (piles électriques). On notera que des phénomènes électrochimiques se produisent naturellement dans les roches constitutives de la croûte terrestre, dans les ouvrages humains (facteurs d’érosion) et au sein des êtres vivants, où ils jouent un rôle déterminant (transmission de l’influx nerveux, par ex.).

 

électrolyse

 Pour électrolyser un corps, on le place dans un récipient (voltamètre ou cuve à électrolyse) dans lequel plongent deux électrodes, fixes ou mobiles, qui seront reliées aux deux bornes d’un générateur de courant continu. On appelle anode celle qui est reliée à la borne positive du générateur et cathode celle qui est reliée à la borne négative. L’ensemble constitue une cellule d’électrolyse. Dans un électrolyte, le passage du courant est rendu possible par la présence d’un nombre plus ou moins grand d’ions, provenant de la dissociation de molécules: les uns positifs, ou cations (ions métalliques, ions hydrogène ou ions complexes comme l’ion ammonium); les autres négatifs, ou anions (association d’atomes ayant capté un ou plusieurs électrons). L’application d’une différence de potentiel entre les électrodes de la cuve à électrolyse produit un champ électrique, et les ions se trouvent soumis à des forces dont le sens dépend du signe de la charge qu’ils portent. Les ions positifs se dirigent vers l’électrode négative (cathode), et les ions négatifs, vers l’électrode positive (anode).

 

électromagnétisme L’interaction électromagnétique s’exerce entre toutes les particules possédant une charge électrique. Tout système de particules chargées est la source d’un champ électromagnétique qui peut être calculé à l’aide des équations de Maxwell. Ce champ est caractérisé par deux vecteurs notés E (champ électrique) et B (champ magnétique). Dans le cas particulier de charges immobiles, B est nul et les propriétés du champ E sont celles de l’électrostatique (V. électricité). Toute charge en mouvement accéléré émet des ondes électromagnétiques. Ce phénomène est appelé rayonnement électromagnétique (V. encycl. rayonnement). Les applications de l’électromagnétisme ont joué un rôle croissant tout au long du XXe s.: communication à distance à l’aide d’ondes hertziennes (V. radioélectricité), télévision, radar, maser, laser, appareils à micro-ondes.

 

électronique La découverte des rayons cathodiques par Hittorf (1869) puis leur étude par Crookes, Perrin et Thompson sont à l’origine de l’électronique, car ces rayons sont constitués d’électrons accélérés grâce à la forte différence de potentiel qui existe entre la cathode et l’anode des tubes qui les émettent. Les découvertes se succèdent rapidement à la fin du XIXe s. et au XXe s.: l’effet thermoélectronique par Edison en 1884, l’électron par Thompson en 1897, la lampe diode par Fleming en 1904, la diode à jonction par Shockley en 1948, découverte qui permettra la construction des transistors, puis des circuits intégrés (1966). Les électrons utilisés dans les tubes électroniques (diodes, triodes, etc.) sont extraits des atomes de certains corps (tungstène, oxydes alcalino-terreux). Selon la forme d’énergie utilisée pour rompre la liaison qui les unit au noyau atomique, on distingue divers types d’émissions: thermoélectronique ou thermoélectrique (énergie apportée sous forme de chaleur); photoélectrique ou photoélectronique (apport d’énergie par un rayonnement); par l’effet d’un champ électrique de haute intensité appliqué à la surface du corps émetteur; secondaire, lorsqu’on bombarde une surface par des électrons ou par des ions. Du fait de leur inertie à peu près nulle et de leur charge, ils peuvent être aisément accélérés et déviés sous l’action de champs magnétiques et électriques. Tous les composants électroniques subissent une miniaturisation de plus en plus poussée et les prix de revient des appareils électroniques sont de plus en plus bas. Les applications de l’électronique sont innombrables: l’informatique et les télécommunications, la robotique et l’automatisation, la bureautique, les calculatrices, les jeux et les jouets, les appareils dits «grand public» (radio, télévision, haute fidélité, magnétoscope, électroménager), mais aussi l’automobile, la commande numérique, l’instrumentation, le domaine médical, etc.

 

élément

 Element Chim. ­ Tous les corps qui existent à la surface de la Terre sont des combinaisons de 90 éléments naturels. Les chimistes les désignent chacun par un symbole, première lettre majuscule de leur nom actuel ou ancien, souvent suivie d’une seconde lettre minuscule pour éviter les confusions. En 1869, D. Mendeleïev proposa une classification des éléments par «poids atomiques» croissants, mais en plaçant les uns au-dessous des autres ceux qui possédaient des propriétés chimiques identiques. Le tableau périodique actuel dérive de celui de Mendeleïev, mais classe les éléments (naturels et artificiels) par numéros atomiques Z croissants; Z est le nombre des protons présents dans le noyau atomique. Le tableau périodique actuel comprend les 90 éléments naturels et 19 éléments artificiels: le technétium (Z = 43, créé en 1937), le prométhium (Z = 61, créé en 1945) et les transuraniens (Z = 93 à 109) dont le nombre n’a cessé de croître depuis la découverte du neptunium (Z =  93) en 1940. Il comporte sept périodes, représentées horizontalement et notées de I à VII. Chaque période correspond au nombre de couches électroniques des éléments qu’elle contient. La période I est réservée aux éléments qui comportent une seule couche électronique: l’hydrogène (H) et l’hélium (He); les périodes II et III sont réservées aux éléments ayant deux et trois couches électroniques, etc. Les diverses colonnes (verticales) notent le nombre d’électrons de la couche périphérique externe, celle dont l’énergie est la plus élevée; le chiffre romain qui les désigne indique ce nombre. Ainsi, tous les éléments de A I possèdent un seul électron périphérique; mis à part l’hydrogène, ce sont les métaux alcalins (lithium Li; sodium Na; etc.); perdant facilement cet électron, ils sont très réactifs. La colonne A II contient les métaux alcalino-terreux, qui possèdent deux électrons périphériques (beryllium Be, manganèse Mn, etc.). Ensuite, la régularité du tableau est rompue par la zone (A III à B II) qui contient les métaux de transition; le numéro de chaque colonne ne représente pas le nombre d’électrons périphériques (lequel vaut en général deux et parfois un) mais provient de l’ancienne forme, dite «courte» du tableau périodique. Autres anomalies, la case du lanthane (La; Z = 57) comprend cet élément et tous les lanthanides, et celle de l’uranium (U; Z = 92) comprend cet élément et tous les transuraniens. De B III à B VII, le tableau retrouve sa régularité: le numéro d’une colonne représente à nouveau le nombre d’électrons périphériques. À l’extrême droite du tableau, une colonne notée 0 présente des éléments particulièrement stables, à cause du remplissage complet des couches électroniques; leur couche externe comprend huit électrons; ce sont les gaz rares, dits aussi inertes, car ils ne peuvent connaître d’état excité. B VII regroupe les halogènes, qui ont sept électrons périphériques; tout halogène a tendance à gagner un électron afin d’acquérir la structure électronique du gaz rare qui le suit (dans la colonne 0). De nombreux éléments de la droite du tableau, dits non-métaux, se rencontrent dans la nature à l’état de combinaisons gazeuses. Quand on suit une période de la droite vers la gauche, le caractère métallique s’accentue. Des éléments (parfois appelés métalloïdes ou semi-métaux) font la transition entre métaux et non-métaux: arsenic (As), antimoine (Sb), etc. Une configuration atomique de numéro atomique Z donné peut présenter des atomes ayant des masses atomiques différentes: ce sont les isotopes d’un élément considéré; pour chaque élément nous avons indiqué leur nombre dans la liste des éléments. Ces isotopes ont des masses différentes car leurs noyaux ne comportent pas le même nombre de neutrons; ce nombre varie facilement et, par bombardement du noyau avec des particules accélérées, on peut produire de nouveaux isotopes artificiels.

 

 énergie L’énergie se manifeste sous des formes très diverses: énergie calorifique, électromagnétique, électrique, nucléaire, mécanique, chimique, etc. L’équivalence des formes d’énergie implique que l’énergie totale (mise en jeu lors de la transformation d’une énergie en une autre) reste constante (premier principe de la thermodynamique). Il y a irréversibilité des échanges d’énergie; ainsi, l’énergie mécanique peut se transformer entièrement en énergie calorifique. En revanche, la transformation inverse ne peut être totale, elle est toujours accompagnée de pertes de chaleur (second principe de la thermodynamique). Le joule (symbole J) est l’unité d’énergie du système SI. Elle correspond au travail d’une force de 1 newton dont le point d’application se déplace de 1 mètre dans sa propre direction. D’autres unités, hors système SI, sont également utilisées: le watt-heure (1 Wh = 3600 J), l’électronvolt (1 eV = 1,6 . 10-¹9 J) employé en physique nucléaire, la calorie. Sur la Terre, le Soleil est la source fondamentale d’énergie, car toutes les autres sources (charbon, gaz, pétrole, vent, etc.) en découlent. L’utilisation directe de l’énergie solaire semble donc être l’un des moyens de remédier à l’épuisement progressif des ressources actuelles en énergie.

 

entropie

 Tout système physique a tendance à évoluer vers un état de moindre organisation: on dit que son entropie augmente. Un gaz comprimé, par ex., tend spontanément vers un état où sa pression sera plus faible; l’inverse ne se produit jamais; pour le ramener à son état initial, il faudra le comprimer, en dépensant un travail. Lorsqu’un système isolé évolue à température constante entre deux états en échangeant une faible quantité de chaleur avec le milieu extérieur, sa variation d’entropie (qui s’exprime en joules par kelvin) est inversement proportionnelle à sa température absolue. L’entropie d’un système isolé ne peut qu’augmenter, tandis que l’énergie utilisable de ce système diminue. Cette dégradation ne peut s’arrêter que par un apport extérieur. L’entropie de notre Univers, système isolé, augmente constamment. Les organismes vivants parviennent, en constituant des systèmes organisés à partir d’apports alimentaires, à réduire localement et temporairement cette entropie. ­ La théorie de l’information, due à Shannon et Weaver (1948), s’attache à la quantité d’informations qu’un signal ou message porte: réduire l’entropie d’une information (ou d’une série d’informations), c’est réduire le nombre des possibilités d’interprétation du message, donc en réduire l’incertitude.

 

équilibre

 Physique. ­ On ne peut définir l’équilibre d’un système que par rapport à un repère donné. Dans ce repère, le système est en équilibre si les coordonnées de chacun de ces points sont constantes. Le repère de la mécanique classique a pour origine le Soleil et pour axes les trois directions menées du centre de cet astre à trois étoiles fixes. Dans ce repère, dit de Copernic, ainsi que dans tous les repères se translatant à vitesse constante par rapport au précédent, les mouvements de translation n’existent pas si la somme des forces appliquées au solide initialement au repos est nulle. Toute rotation est impossible si la somme des moments des forces par rapport à un point du corps (V. dynamique) est également nulle. Ces deux équations vectorielles correspondent à six relations algébriques qui caractérisent l’équilibre. En fait, il n’y a équilibre qu’à une échelle macroscopique. L’équilibre absolu n’existe pas. Molécules, atomes, noyaux et électrons sont animés de mouvements incessants: mouvements browniens dans les liquides et les gaz, oscillations des atomes des solides, mouvements orbitaux des électrons autour du noyau, etc.

 

espace La conquête de l’espace a débuté par le lancement et la mise en orbite terrestre de satellites artificiels (Spoutnik 1 le 4 octobre 1957) puis par l’envoi d’hommes dans des satellites capables de revenir sur terre (Youri Gagarine dans Vostok 1 le 12 avril 1961, John Glenn dans la capsule Mercury le 20 février 1962). La conquête de la Lune a commencé en 1968 par l’envoi de l’engin soviétique Zond 5, qui réalisa la première boucle Terre-Lune-Terre, et s’est poursuivie par le programme américain Apollo (le 21 juillet 1969, Neil Armstrong, suivi d’Edwin Aldrin, posait le pied sur la Lune). Les programmes Saliout (soviétique) et Skylab (américain) permirent à partir de 1971 et de 1973 de mettre au point les techniques de travail dans l’espace et d’accouplement de vaisseaux spatiaux. La conquête de l’espace s’orienta alors dans deux directions: la poursuite de l’exploration du système solaire par des sondes de plus en plus perfectionnées (programme Voyager vers les planètes extérieures à partir de 1977, Magellan vers Vénus en 1990-1993, Ulysse en dehors du plan de l’écliptique à partir de 1990), capables de pratiquer des analyses in situ (missions Viking sur Mars en 1975-1976, Venera sur Vénus à partir de 1970, Giotto vers la comète de Halley en 1986); l’exploitation de l’espace à des fins scientifiques (astronomie, expériences en impesanteur) et pratiques (télécommunications, météorologie, télédétection et inventaire des ressources terrestres). Si la conquête de l’espace s’appuie toujours sur les lanceurs traditionnels (fusée Ariane, notam.), depuis 1981 on utilise aussi des engins d’une nouvelle génération, les navettes spatiales. La fin de la course à l’espace qui suivit l’éclatement de l’U.R.S.S. en 1991 se traduit auj. par un ralentissement, et parfois une remise en question de certains grands programmes spatiaux (station spatiale américaine, exploration planétaire russe, navette européenne). V. aussi satellite.

 

ethnologie

  Chez Hérodote l’on trouve pour la première fois une étude comparée des sociétés humaines. Avec les philosophes du XVIIIe s., l’ethnologie passe de l’exotisme à l’humanisme: l’homme appartient à une société particulière dont les institutions se prêtent à des études comparatives; d’autre part, l’humanité évolue de la «sauvagerie» vers la civilisation. Au début du XIXe s., l’ethnologie analyse les caractères distinctifs des divers types humains et la formation des ensembles raciaux, tandis que l’ethnographie consistait à classer des groupes humains à partir de leur langue. Les nombreux ethnologues du XIXe s. peuvent être classés en plusieurs écoles. L’évolutionnisme, influencé par le lamarckisme et le darwinisme, affirme que l’humanité porte en elle des dispositions immanentes qui se développent à mesure que la société progresse. L’anthropologue américain Lewis H. Morgan, dans Ancient Society (1877), définit trois grandes périodes: sauvagerie, barbarie, civilisation. L’Écossais Frazer se rattache à cette école. À l’inverse, le diffusionnisme professe qu’une innovation naît dans un des rares centres culturels et se répand par diffusion. L’Américain Boas a utilisé, sans outrance, cette notion. Pour le fonctionnalisme, fondé par le Britannique Malinowski (les Argonautes du Pacifique occidental, 1922), tout fait social doit être étudié dans ses relations avec tous les autres. À sa suite, les acquis de la linguistique, de la psychanalyse, de la sociologie, de la géographie, etc., ont contribué à faire de l’ethnologie une science humaine d’autant plus précieuse qu’elle a réduit à néant des préjugés tels que le racisme, mais cela alors que les sociétés dites traditionnelles (naguère, primitives) tendent à rejoindre, dans des conditions catastrophiques, le monde historique. «Ayant le même objet, qui est la vie sociale, le même but, qui est une meilleure intelligence de l’homme, et une méthode où varie seulement le dosage des procédés de recherche, l’histoire et l’ethnologie se distinguent surtout par le choix de perspectives complémentaires: l’histoire organisant ses données par rapport aux expressions conscientes, l’ethnologie par rapport aux conditions inconscientes de la vie sociale» (Cl. Lévi-Strauss).

 

exobiologie ASTRO Branche de l’astronomie qui étudie la possibilité d’une vie hors de la planète Terre.

 

fission PHYS NUCL Division d’un noyau atomique lourd en noyaux plus légers

Le processus de fission a été découvert en 1938 par Hahn et Strassmann. Un noyau lourd est divisé en noyaux plus légers sous l’influence d’un bombardement corpusculaire (neutrons lents, par ex.). La masse des noyaux obtenus étant inférieure à celle du noyau initial, la fission s’accompagne d’une libération énorme d’énergie, due à cet écart de masse. Cette libération d’énergie (chaleur et rayonnement) est brutale dans le cas des explosions nucléaires, contrôlée et progressive dans les centrales nucléaires.

 

fusion Réunion de plusieurs atomes légers en un atome lourd d’une masse inférieure à la masse totale des atomes de départ. Le défaut de masse résultant de la fusion libère une très grande quantité d’énergie. 

La fusion nucléaire part de noyaux légers (deutérium, tritium et lithium) pour aboutir à des noyaux plus lourds (hélium). L’énergie de fusion caractérise les étoiles (V. encycl. étoile). La fusion nucléaire a été obtenue artificiellement en octobre 1952 aux États-Unis (explosion de la première bombe à hydrogène). La fusion contrôlée est beaucoup plus difficile à obtenir; un certain nombre de conditions sont indispensables: température très élevée (plusieurs centaines de millions de kelvins), densité du plasma (mélange d’atomes et d’électrons) suffisante et temps de confinement du plasma (durée des premières réactions) assez long. Aucune substance ne résistant à de telles températures, le plasma doit être confiné au moyen d’un champ magnétique («bouteille magnétique»). Les machines utilisées pour ce confinement (machines à miroirs, tokamaks) permettent d’atteindre des températures de 20 millions de kelvins pendant un dixième de seconde. (La fusion peut s’entretenir d’elle-même à partir de 100 millions de kelvins, pour une densité de 10¹5 noyaux par cm³.) L’utilisation de faisceaux laser permet d’augmenter la densité du plasma, donc de réduire la durée nécessaire pour le confinement. V. fission et noyau.

 

Huygens ou, parfois et à tort, Huyghens (Christiaan) (La Haye, 1629 ­ id., 1695), physicien, géomètre et astronome néerlandais; l’un des plus grands savants de tous les temps (il travailla en France de 1665 à 1680). Il donna extension et cohésion au calcul des probabilités, inventa le balancier régulateur à ressort spiral, mit au point une lunette astronomique (étude de Saturne, Mars, etc.), attribua à la lumière le caractère d’un phénomène ondulatoire (Traité de la lumière, 1678).

 

Lamarck (Jean-Baptiste Pierre de Monet, chevalier de) (Bazentin, Picardie, 1744 ­ Paris, 1829), naturaliste français; professeur de zoologie des invertébrés au Muséum en 1793: la Flore française (1778), Philosophie zoologique (1809), Histoire naturelle des animaux sans vertèbres (1815-1822). ­ Théorie constituée par l’ensemble des idées de Lamarck sur l’évolution des êtres vivants, le lamarckisme est à la base du transformisme, mais il s’oppose au darwinisme, car il considère que les divers caractères qu’une espèce acquiert au cours d’une génération, par suite des influences du milieu de vie, sont transmis à la génération suivante.

 

mercure

  Le mercure est le seul métal liquide à la température ordinaire. Sa grande densité explique son utilisation dans de nombreux appareils de physique, en particulier le baromètre à colonne de mercure. Le mercure est un bon conducteur de l’électricité (il entre dans la fabrication de contacteurs). Il forme des alliages liquides, appelés amalgames, avec la plupart des métaux. Il sert en éclairage (lampes à vapeurs de mercure, tubes fluorescents). Les sels de mercure sont toxiques. La pollution des aliments par les sels de mercure provoque de graves intoxications (troubles neurologiques, malformations fœtales) pouvant entraîner la mort (contamination des céréales par les pesticides et des poissons par les sels de mercure rejetés en mer).

 

organométallique

 Selon la nature du métal, la liaison carbone-métal peut être covalente (métaux de transition) ou ionique (alcalins et alcalino-terreux). Lorsque la liaison est plutôt covalente, les dérivés obtenus sont volatils et solubles dans les solvants organiques. Au contraire, les dérivés ioniques sont des solides de type salin; les dérivés alcalins sont des initiateurs de polymérisation, par ex. du styrène. Les organométalliques sont presque tous des intermédiaires de synthèse, qui permettent de préparer un grand nombre de composés. Certains complexes organométalliques jouent un rôle considérable dans les processus vitaux: hémoglobine, chlorophylle, cytochromes.

 

Puiseux (Pierre) (Paris, 1855 ­ Frontenay, 1928), astronome français, fils de Victor Puiseux; il participa à l’élaboration de cartes photographiques du ciel et de la Lune.

 

Puiseux (Victor) (Argenteuil, 1820 ­ Frontenay, Jura, 1883), astronome et mathématicien français; il étudia les fonctions à variable complexe. 

 

pulsar ASTRO Étoile à neutrons fortement magnétisée et en rotation rapide, dont l’émission se caractérise par une série d’impulsions régulièrement espacées dans le temps. ­ Pulsar milliseconde: pulsar ultra-rapide.

 

quasar ASTRO Astre extragalactique parmi les plus lumineux de l’Univers.

Découverts au début des années 1960 en raison de leurs émissions d’ondes radioélectriques, les quasars sont des objets célestes tellement lumineux qu’il est possible de les observer très loin dans l’espace, donc très loin dans le temps. Les plus éloignés observés (plus de 12 milliards d’années de lumière) sont les témoins d’un passé très reculé de l’Univers. La seule source d’énergie propre à expliquer leurs extraordinaires propriétés (un quasar rayonne de 100 à 1000 fois plus d’énergie qu’une galaxie dans un volume de 10 à 20 fois plus petit) est l’énergie gravitationnelle d’un trou noir dont la masse serait de l’ordre d’un milliard de masses solaires.

 

 

quantum

  Phys. ­ Les transferts d’énergie entre matière et rayonnement ne s’effectuent pas de façon continue mais mettent en jeu des quantités finies d’énergie, ou grains d’énergie, appelés quanta. L’énergie E d’un quantum est égale au produit de la fréquence v du rayonnement qui le transporte par la constante de Planck h.

E = hv = ?, si c est la vitesse de la lumière et  la longueur d’onde du

rayonnement. Dans cette formule, E s’exprime en joules, h en joules-seconde, v en hertz, c en mètres par seconde,  en mètres; la constante de Planck h est égale à 6,626 176.10-³4 joules-seconde. La théorie des quanta fut établie en 1900 par Planck. Elle a permis d’expliquer l’effet photoélectrique: lorsqu’un photon (alors nommé «quantum de lumière») frappe l’atome d’un métal, il chasse un électron si son quantum d’énergie, et donc sa fréquence, est supérieur à une certaine valeur. La théorie des quanta a conduit Bohr à proposer un modèle de l’atome dans lequel les électrons périphériques occupent des niveaux d’énergie correspondant à des valeurs déterminées; lorsqu’un électron passe d’une orbite à une autre, c.-à-d. d’un niveau d’énergie à un autre, il émet un rayonnement. À la suite de Louis de Broglie, qui effectua la synthèse entre la théorie corpusculaire et la théorie vibratoire de la lumière (mécanique ondulatoire), Heisenberg jeta les bases de la mécanique quantique, qui bouleversa la représentation du monde microscopique en rejetant l’image de particules se déplaçant sur des trajectoires bien déterminées. La mécanique quantique fut ensuite développée par Schrödinger et rendue compatible avec la théorie de la relativité par Dirac. Elle a expliqué la nature de la liaison chimique, rendu compte de nombreuses propriétés des solides et permis l’essor de la physique nucléaire.

 

Schrieffer (John Robert) (Oak Park, Illinois, 1931), physicien américain; connu pour ses travaux sur la supraconductivité. P. Nobel de physique 1972 avec J. Bardeen et L. N. Cooper.

 

Schrödinger (Erwin) (Vienne, 1887 ­ id., 1961), physicien autrichien; célèbre pour ses travaux de physique nucléaire et de mécanique ondulatoire. P. Nobel de physique 1933 avec P. Dirac.

 

spectre

  Phys. ­ Lorsqu’un pinceau de lumière blanche traverse un prisme, il se décompose en rayons de diverses couleurs (V. couleur, encycl.) et donc de fréquences différentes, dont on peut observer sur un écran le spectre continu, constitué d’une succession de plages lumineuses. Certains spectres sont constitués d’un fond continu sur lequel se superposent un certain nombre de raies de couleur claire (raies d’émission) ou sombre (raies d’absorption), caractéristiques des rayonnements étudiés. Ces raies sont dues à l’émission ou à l’absorption de rayonnement par un électron, lorsqu’il abandonne une trajectoire pour une autre. Lorsque l’électron se rapproche du noyau atomique, son énergie décroît en se transformant en un photon dont la fréquence est proportionnelle à la diminution d’énergie. Inversement, en absorbant l’énergie d’un photon, un électron peut s’éloigner du noyau. Les appareils de spectroscopie comprennent un dispositif qui dirige les rayons à étudier sur un appareil dispersif qui produit le spectre. Cet ensemble est accompagné d’un appareil d’observation (spectroscope) ou d’enregistrement (spectrographe). Les spectroscopes permettent de mesurer avec précision la longueur d’onde des rayonnements, de déceler des éléments contenus à l’état de traces dans une substance (analyse spectrale), d’étudier la structure des cristaux et des métaux (cristallographie). Grâce à l’étude des spectres des rayonnements émis par les astres, on a pu déterminer leur composition chimique, leur température, leur vitesse par rapport à la Terre, etc. Lorsqu’un astre s’éloigne de la Terre, la fréquence de son rayonnement diminue par effet Doppler-Fizeau et son spectre est décalé vers le rouge; inversement, si l’astre se rapproche de la Terre, son spectre se décale vers le violet (le rouge correspond à une fréquence inférieure de moitié à celle du violet).

 

Sperry (Roger Wolcott) (Hartford, 1913 ­ Pasadena, 1994), neurophysiologiste américain. Ses travaux ont porté, notam., sur l’asymétrie fonctionnelle des hémisphères cérébraux (dominance de l’hémisphère gauche, chez les droitiers, pour ce qui concerne le langage). P. Nobel de médecine 1981 avec D. H. Hubel et T. N. Wiesel.

 

Spitzer (Lyman) (Toledo, Ohio, 1914 ­ Princeton, New Jersey, 1997), astrophysicien américain. Considéré comme l’un des pionniers de la physique des plasmas,  il est l’auteur d’importants travaux sur les amas d’étoiles et le milieu interstellaire. Il a ruiné les théories «catastrophistes» relatives à la formation du système solaire en démontrant qu’un filament de matière arraché au Soleil est trop instable pour donner naissance à des planètes. En 1951, il constribue ainsi au lancement du Projet Matterhorn, dont l’objet est la maîtrise des réactions de fusion, notamment celles qui permettent au soleil de brûler son hydrogène. Il a également été à l’origine de la construction du grand télescope spatial Hubble.

 

stade

 Psychanalyse. ­ Freud appelle stade une étape de la sexualité de l’enfant caractérisée par le primat d’une certaine partie du corps dont l’excitation est cause de plaisir (zone érogène). Le premier stade est le stade oral. La zone érogène est la bouche et les lèvres (première année de la vie). Lié d’abord à la tétée, le plaisir s’émancipe rapidement et se donne même des substituts comme la succion du pouce. Le premier drame que connaît l’enfant est le sevrage. Vient ensuite le stade sadique-anal (deuxième et troisième années). La zone érogène est l’anus: le plaisir est provoqué par la rétention des matières fécales et l’excitation des muqueuses anales. C’est aussi le moment où l’enfant découvre les premières interdictions sociales. Il peut manifester son agressivité en face de la réprobation de l’adulte (sadisme) ou la retourner contre soi (masochisme). Le stade phallique correspond en gros à la quatrième et à la cinquième années. La zone érogène est la zone génitale (pénis ou clitoris), le plaisir est obtenu par la masturbation. Ce stade est lié à la découverte, traumatisante pour l’enfant, de la différenciation des sexes. Le garçon ressent l’angoisse de la castration; la fille vit comme un manque l’absence chez elle de pénis. La fin du stade phallique coïncide théoriquement avec la liquidation du complexe d’Œdipe. Vient ensuite une période de latence (de six ans à la puberté) caractérisée par une diminution des pulsions sexuelles, l’amnésie infantile, le détournement de l’énergie vers des buts non sexuels (sentiments sociaux) et l’établissement des barrières morales. Avec la puberté apparaît le stade génital. On assiste à un retour en force des pulsions sexuelles, à une reviviscence du complexe d’Œdipe, à l’organisation de toutes les pulsions partielles sous le primat des zones génitales bien définies, au choix de l’objet sexuel, à une série de mesures de défense prises par le moi pour se protéger contre la force des pulsions (idéalisme adolescent). V. moi et pulsion. 

 

statique

 La statique repose sur le principe de l’action et de la réaction (les actions mutuelles qui s’exercent entre deux points matériels sont égales et opposées), et sur le fait que l’ensemble des forces qui s’exercent sur un système matériel constitue un espace vectoriel. Dans le cas d’un point matériel, l’ensemble de ces forces peut être remplacé par un vecteur unique, appelé résultante. Le point est en équilibre si cette résultante est nulle. La statique des solides fait intervenir le torseur constitué par la résultante des forces extérieures (forces exercées par les éléments étrangers au système, y compris les forces de liaison) et par le moment de ces forces par rapport à un point donné. Le solide est en équilibre si ce torseur est nul. La statique des fluides étudie l’équilibre des fluides au repos; elle comprend l’hydrostatique (statique des fluides incompressibles, c’est-à-dire les liquides) et l’aérostatique (statique des fluides compressibles, c’est-à-dire les gaz). Le principe d’Archimède, le principe de Pascal  (pression exercée par une colonne de liquide), les siphons, l’état de la surface des liquides au repos sont des applications de la statique des fluides.

 

statistique

 La statistique repose sur l’étude de populations, constituées par un ensemble d’individus, ou unités statistiques (habitants d’un pays, pièces d’un lot, passages de voitures à un endroit déterminé, etc.). Lorsque la population statistique à étudier est trop nombreuse, on prélève sur celle-ci un lot, ou échantillon, sur lequel portent les observations. On définit les caractères de la population à étudier, caractères qualitatifs (marque d’une automobile, par ex.) ou quantitatifs (taille d’un individu, par ex.). Les caractères quantitatifs, appelés aussi variables statistiques, peuvent être classés en variables discrètes (nombre de pièces d’un logement, par ex.) ou, à l’inverse, continues (âge d’une personne, par ex.). Les observations statistiques sont analysées soit au moyen de distributions, donnant les effectifs ou les fréquences pour chacune des classes qui constituent la population, soit au moyen de fonctions de répartition, correspondant au cumul des effectifs ou des fréquences. Une distribution peut être caractérisée par un certain nombre de valeurs (le mode, la médiane et la moyenne), qui permettent de comparer plusieurs distributions, et par sa dispersion, que l’on caractérise généralement par la variance ou par la racine carrée de cette variance, appelée écart-type. Lorsqu’une série statistique possède plusieurs caractères, une étude de corrélation cherche à déterminer si certains de ces caractères sont liés les uns aux autres. Dans le cas où le nombre des caractères est très élevé, on utilise d’autres méthodes, par ex. l’analyse en composantes principales, qui consiste à réduire le nombre de caractères, ou l’analyse factorielle. Les statistiques présentent aujourd’hui un intérêt considérable, compte tenu du grand nombre des données (présentant toujours un caractère aléatoire) qu’il est nécessaire de traiter (à l’aide de l’ordinateur, dans la quasi-totalité des cas) en économie, en sociologie, en démographie, en gestion, dans l’industrie (contrôle de fabrication), en physique des particules, en météorologie, dans la recherche biologique, en astrophysique, dans la science de l’espace, etc. V. aussi probabilité.

 

stéréochimie

  Les répartitions spatiales des atomes dans les molécules, proposées d’abord à titre de modèles hypothétiques par la stéréochimie, ont progressivement été confirmées par les méthodes modernes d’investigation (radiographie, notamment). Ainsi, la représentation spatiale du benzène a posé longtemps un problème aux chimistes; aujourd’hui, on sait que sur les quatre électrons de chaque carbone, trois sont utilisés par des liaisons covalentes, appelées liaisons sigma, et que la probabilité de présence du quatrième est représentée par un «nuage», appelé orbitale, symétriquement disposé de chaque côté de la molécule. De même, la forme spatiale du cyclohexane peut affecter celle d’une chaise (deux atomes de carbone se trouvant de part et d’autre du plan formé par les quatre autres, ce qui constitue la forme la plus stable) ou celle d’un bateau (les deux atomes de carbone se trouvant du même côté du plan des quatre autres). La stéréochimie permet d’expliquer qu’une molécule peut exister sous deux formes optiquement inverses l’une de l’autre: lévogyre et dextrogyre (V. polarisation).

 

stéréoscopie

 La stéréoscopie repose sur la fusion de deux images prises par un appareil photographique dont les deux objectifs sont séparés par un écart égal à la distance entre les deux yeux d’un être humain. L’observation de ces images donne la sensation du relief, comme lors de la vision binoculaire. La stéréoscopie possède diverses applications: les jumelles stéréoscopiques augmentent la sensation du relief; les télémètres stéréoscopiques permettent, en particulier, de déterminer la distance d’un objectif (à la suite d’un calcul trigonométrique).

 

Stern (Otto) (Sorau, auj. Zary, en Pologne, 1888 ­ Berkeley, 1969), physicien américain d’origine allemande; connu pour ses nombr. travaux de physique atomique. P. Nobel de physique 1943.

 

Stoney (George Johnstone) (Oakley Park, King’s County, auj. comté d’Offaly, 1826 ­ Londres, 1911), physicien irlandais. En 1891, il supposa l’existence de particules porteuses d’une charge négative et les nomma électrons.

 

stratigraphie

 Les roches sédimentaires sont disposées en couches superposées, ou strates (V. sédiment). La stratigraphie au sens strict étudie la succession des couches dans le temps. L’étude de la répartition des couches dans l’espace, qui permet de reconstituer la géographie des périodes anciennes, constitue la paléogéographie. Bien que restreintes aux terrains sédimentaires, la stratigraphie et la paléogéographie permettent de situer dans le temps et dans l’espace les autres événements géologiques: plissements, phases orogéniques, éruptions volcaniques, intrusions granitiques, apparition de nouvelles espèces fossiles, évolution du monde vivant.

 

Struve (Otto) (Kharkov, 1897 ­ Berkeley, 1963), astronome russe établi aux États-Unis en 1921, puis naturalisé américain; petit-fils d’Otto von Struve. Il est connu pour ses travaux de spectroscopie stellaire.

 

Struve (Otto von) (Dorpat, aujourd’hui Tartou, Estonie, 1819 ­ Karlsruhe, 1905), astronome russe, fils de Wilhelm von Struve. Il identifia de nombreuses étoiles doubles

 

Sturm (Charles) (Genève, 1803 ­ Paris, 1855), mathématicien et physicien français d’origine suisse. ¶ MATH Le théorème de Sturm fournit le nombre de racines réelles d’une équation numérique comprises entre deux nombres donnés. ¶ OPT Focales de Sturm: segments de droite sur lesquels aboutissent les rayons lumineux qui sortent d’un système optique.

 

sublimation

 Psychanalyse. ­ Alors que le refoulement exige du sujet une dépense continuelle d’énergie psychique, puisqu’il ne cesse jamais, la sublimation permet au sujet d’atténuer la tension qui résulte de ses conflits intérieurs, de satisfaire indirectement ses désirs inconscients et surtout d’éviter d’être en désaccord avec son surmoi. Elle constitue donc un mécanisme de défense particulièrement efficace puisqu’il permet de retrouver l’équilibre perdu et de rester en accord avec le milieu social. On considère, depuis Freud, que la notion de sublimation qu’il avait définie surtout à propos de la libido peut s’appliquer à d’autres instincts que la sexualité et notamment aux pulsions agressives qui se subliment en devenant compétition au niveau le plus élevé: professionnel, sportif, culturel.

 

supernova

 Astronomie. ­ L’explosion des supernovæ dégage une énergie plusieurs milliers de fois supérieure à celle que rayonne le Soleil. Après l’explosion, l’étoile se transforme en naine blanche ou en étoile à neutrons. La nébuleuse du Crabe constitue le reste de l’explosion d’une supernova, observée en Extrême-Orient vers l’an 1054. Les restes d’explosion d’une supernova constituent des sources de rayonnement électromagnétique et se regroupent en structures filamenteuses.

 

supraconductivité Découverte en 1911, la supraconductivité n’a longtemps pu être observée qu’à des températures extrêmement basses (une dizaine de kelvins) obtenues par l’emploi de l’hélium liquide.  À de telles températures, l’arrangement des électrons libres entre les atomes se modifie dans un grand nombre de métaux et d’alliages métalliques. La température de transition, au-dessous de laquelle ces métaux deviennent supraconducteurs, varie entre 0,14 K pour l’iridium et 11,2 K pour le technétium; rappelons que le zéro absolu (0 kelvin) correspond à - 273,15 °C. La température de transition de certains alliages (niobium-germanium-aluminium) peut atteindre 21 K, température très légèrement supérieure à celle de l’hydrogène liquide (20,45 k). Les corps supraconducteurs ne présentent plus de résistance électrique et donc ne s’échauffent plus lorsqu’ils sont traversés par un courant électrique à une température inférieure à celle de la température de transition. Cette propriété est utilisée pour produire des champs magnétiques très intenses et pour fabriquer des appareils de mesure sensibles aux champs magnétiques très faibles, des éléments de sustentation magnétique, des câbles servant au transport de puissances très élevées, etc. Depuis 1987, on sait préparer des matériaux supraconducteurs à des températures de l’ordre d’une centaine de kelvins, ce qui autorise l’emploi de l’azote liquide, beaucoup moins onéreux. Le transport d’énergie sans pertes, ainsi envisageable, est susceptible de nombreuses applications industrielles.

 

surgénérateur Les surgénérateurs sont des réacteurs à neutrons rapides qui utilisent comme combustible de l’uranium 235 enrichi ou du plutonium 239. En plaçant autour du cœur du réacteur une matière fertile constituée d’uranium 238 ou de thorium 232, ces isotopes non fissiles se transforment, par capture d’un neutron, en plutonium 239 et en uranium 233, isotopes fissiles. Si les réactions qui permettent la production de matière fissile, en réalisant la capture de neutrons par la matière fertile, sont plus nombreuses que les réactions de fission, le réacteur produit plus de matière fissile qu’il n’en consomme. On réserve généralement le nom de surgénérateurs aux réacteurs qui produisent la même matière fissile que celle qui est consommée; ceux qui produisent une matière fissile différente sont nommés surconvertisseurs.

 

surmoi

 Le surmoi est l’intériorisation des interdits sociaux qui frappent les pulsions naturelles (V. 2. ça). Les circonstances de sa formation (pendant la petite enfance), sa plus ou moins grande sévérité seront déterminantes pour toute la vie ultérieure de l’individu. Le surmoi exerce sa juridiction à deux niveaux. 1. Quand ses conflits avec le moi relèvent de la conscience morale, ceux-ci ne compromettent pas l’équilibre affectif. 2. Quand ils se produisent dans l’inconscient, des troubles psychiques peuvent apparaître. Le surmoi n’est pas uniquement répressif: il propose constamment au moi des idéaux, des modèles culturels et moraux. Il devient alors le moi idéal ou idéal du moi.

 

tectonique

 Le développement de la tectonique n’a été possible qu’après celui de la pétrographie et de la stratigraphie. Les déformations de l’écorce terrestre sont dues à l’existence de fortes pressions à l’intérieur du globe. La matière qui subit ces tensions se déforme progressivement. Au-delà d’un certain seuil de cisaillement, propre à chaque roche, il se produit une rupture de la matière. Les déformations sont regroupées en deux familles: les déformations continues forment les plis tels que synclinaux et anticlinaux; les déformations discontinues, les failles, mais aussi les charriages.

 

télécommunication De très nombreuses techniques ont donné leur essor aux télécommunications modernes: télégraphie, téléphone, télévision, etc. Dans le domaine du téléphone, les transmissions peuvent se faire à l’aide de nouveaux procédés (satellites, guides d’ondes, fibres optiques; des moyens de codage (modulation d’impulsions) utilisent les lignes installées pour véhiculer une trentaine de conversations, ou des liaisons nouvelles à très large bande passante, correspondant à plusieurs milliers de voies. V. multiplex. Comme le réseau téléphonique, le réseau télex (qui a remplacé l’ancien système télégraphique) est équipé d’autocommutateurs spéciaux qui permettent d’établir automatiquement des liaisons entre les abonnés dont chacun possède un téléimprimeur, utilisé pour l’envoi et pour la réception des messages. Quant à elle, la télécopie dite aussi fax (abrév. de téléfax), utilise directement le réseau téléphonique. Les liaisons par ondes radioélectriques (V. radioélectricité), qui permettent de s’affranchir de la sujétion des câbles, s’effectuent par ondes courtes (radiotéléphonie, par ex.) ou par ondes ultracourtes (faisceaux hertziens). La radiodiffusion et la télévision font appel exclusivement aux ondes radioélectriques et doivent opérer une couverture maximale des territoires, ce qui nécessite la création d’un réseau complexe d’émetteurs et de relais destinés à assurer une réception de qualité en tout endroit. Un faisceau hertzien est constitué d’un ensemble de relais séparés les uns des autres par une distance de 50 à 80 km. Les capacités de transmission des faisceaux hertziens peuvent atteindre plusieurs milliers de voies téléphoniques. Les satellites de télécommunications servent de relais hertziens. On utilise généralement des satellites géostationnaires; trois satellites suffisent pour que deux points de la surface terrestre situés aux antipodes l’un de l’autre puissent être mis en communication. Parmi les autres moyens de transport des informations, citons les guides d’ondes, cylindres à l’intérieur desquels les ondes ultracourtes se propagent par réflexions successives, les fibres optiques, qui permettent de transporter des signaux lumineux avec une capacité de transmission très supérieure à celle des câbles ou des faisceaux hertziens. Ces signaux lumineux, émis par des lasers, sont en fait des ondes radioélectriques cent mille fois plus courtes que les ondes ultracourtes. Les télécommunications sont également utilisées pour relier les ordinateurs, diffuser et transporter à longue distance les signaux d’informatique: on parle alors de téléinformatique et de télématique.

 

télémètre Les télémètres optiques sont constitués par un tube qui porte deux miroirs à ses extrémités. Les images du point visé sont reprises par un oculaire situé au milieu du tube, la distance à mesurer étant déterminée par la position des images finales ou par leur mise en coïncidence. Le télémètre à laser comporte un laser à impulsions dont le faisceau se réfléchit sur un miroir porté par la cible. Les radars sont des télémètres radioélectriques. 

 © Hachette Livre, 1998

 

télescope

 Physique. ­ L’objectif d’un télescope est un miroir concave, généralement parabolique, qui donne une image réelle parfaite d’un point situé à l’infini sur l’axe du miroir et que l’on peut observer avec une loupe servant d’oculaire. Les miroirs des télescopes sont, à l’inverse des lentilles des lunettes, parfaitement achromatiques et ils ont des dimensions bien supérieures, par ex. 6 mètres de diamètre. Les radiotélescopes servent à détecter les ondes radioélectriques émises par les astres; totalement différents des télescopes optiques, ils sont constitués d’une antenne de grande dimension et d’un appareillage qui effectue l’analyse des signaux reçus. Les télescopes électroniques, dont la puissance est nettement supérieure à celle des télescopes optiques, comprennent un amplificateur électronique d’images associé à un télescope optique. Terrestres, tous ces télescopes captent des signaux que perturbe l’atmosphère terrestre, dont sont libérés les télescopes spatiaux. Mis en orbite en 1990, le plus grand télescope spatial, nommé Hubble, a été débarrassé en 1993 d’un défaut qui affectait son optique.

 

temps

  Phys. ­ Le temps n’est pas, à proprement parler, une grandeur physique. Il constitue plutôt, au même titre que l’espace, une grandeur par rapport à laquelle le monde évolue. Comme il est impossible de réaliser un étalon de temps, la mesure du temps doit être rattachée à un phénomène simple qui se reproduit périodiquement. L’unité de temps du système SI est la seconde, qui est définie à partir des vibrations de l’atome de césium. (V. seconde.) Elle doit être distinguée de l’échelle de temps, qui permet d’assigner des dates à des événements. Un intervalle de temps est limité par deux dates dans l’échelle de temps. En physique, à la notion de temps absolu doit être substituée celle de temps relatif. Deux événements qu’un observateur juge simultanés ne le seront pas pour un autre observateur en mouvement par rapport au premier s’ils se produisent en des points distincts de l’espace. V. relativité.

  Astro. ­ L’échelle de temps universel (abrév.: UT) se déduit de la rotation de la Terre autour de son axe et de son mouvement autour du Soleil. Le temps solaire vrai est égal à l’angle horaire du Soleil: il est 0 h vraie lorsque le Soleil traverse le méridien. Le temps solaire moyen est calculé en supposant un Soleil fictif dont l’angle horaire varie uniformément, ce qui n’est pas le cas du Soleil réel, compte tenu de l’obliquité de l’écliptique en partic. Au temps solaire moyen on substitue le temps civil, par addition de 12 heures. Le jour civil commence donc à minuit. Le temps universel est par définition égal au temps civil de Greenwich. Les temps légaux dérivent du temps universel suivant le système des fuseaux horaires. En principe, chaque pays adopte l’heure du fuseau qui contient sa capitale (sauf pour les pays très étendus). Cette règle souffre des exceptions, en partic. pour la France, qui vit sur UT + 1 heure en hiver et UT + 2 heures en été, bien qu’elle se trouve dans le fuseau 0, c.-à-d. celui de Greenwich. Il existe un deuxième temps astronomique, le temps des éphémérides, dont l’échelle se déduit du mouvement de la Terre autour du Soleil. Sa période fondamentale est l’année. Le temps atomique international a été défini à partir de la vibration de l’atome de césium. Il constitue l’échelle de temps officielle. Cette échelle coïncidait avec l’échelle de temps universel le 1er janvier 1958; l’écart entre ces deux temps est d’env. une seconde par an. Aussi, en 1972, a été définie une base du temps légal, le temps universel coordonné (UTC), établi à partir du temps universel et du temps atomique international.

 

température

 Phys. ­ La température d’un corps est une mesure de l’agitation microscopique des particules qui le constituent. Lorsqu’on fournit de l’énergie à un corps, cette agitation thermique s’accroît et la température augmente. Si cette agitation dépasse un certain seuil, les liaisons qui maintiennent la structure du corps peuvent se rompre et l’on observe un changement d’état (fusion ou vaporisation, par ex.). Si l’on refroidit un corps, son agitation thermique diminue. L’état particulier pour lequel cette agitation est minimale correspond à l’origine de l’échelle Kelvin, le zéro absolu, ainsi nommé parce qu’il correspond à un état limite vers lequel on tend sans pouvoir l’atteindre. Au voisinage du zéro absolu se produisent certains phénomènes particuliers. (V. supraconductivité.) Pour déterminer la température d’un corps, on choisit de mesurer une des grandeurs (dilatation, variation de pression ou de résistance électrique, etc.) dont les variations accompagnent celles de l’agitation thermique, après avoir défini la relation entre la température et la grandeur mesurée. L’échelle de température légale, celle du Système International (SI), est l’échelle thermodynamique, encore appelée échelle absolue. Dans cette échelle, la température s’exprime en kelvins (symbole K). Dans la vie courante, on utilise l’échelle Celsius. En pratique, l’échelle Celsius diffère extrêmement peu de l’ancienne échelle centésimale, dont les points de repère 0 et 100 correspondent respectivement aux points de fusion et d’ébullition de l’eau pure à la pression normale.

Astrophys. ­ On mesure la température superficielle des étoiles, qui varie généralement entre 5000 et 30000 K, en comparant l’énergie émise dans une gamme de longueurs d’onde à celle du corps noir, ou en mesurant l’énergie totale, rayonnée dans toutes les longueurs d’onde. La température à l’intérieur des étoiles est toutefois beaucoup plus élevée que celle de l’atmosphère qui les entoure; elle peut atteindre plusieurs millions de kelvins, température des réactions de fusion nucléaire. Pour parvenir à la fusion nucléaire contrôlée, il faudrait porter un plasma, pendant une durée suffisante, à une température aussi élevée que celle qui règne dans les étoiles. V. fusion et plasma.

 

thermodynamique

 La thermodynamique repose essentiellement sur deux principes et sur la notion de système. Un système est un ensemble de corps, délimité dans l’espace, susceptible d’échanger avec le milieu extérieur du travail (W) et de la chaleur (Q), et caractérisé par son état à un instant donné. Lorsqu’un système évolue d’un état à un autre, la variation de son énergie interne, égale à la somme W + Q, ne dépend que de l’état initial et de l’état final du système; le premier principe s’énonce ainsi: la somme du travail W et de la chaleur Q reçus par un système au cours de son évolution entre deux états 1 et 2 est égale à la variation d’une fonction de l’état du système; cette fonction, notée U, est appelée énergie interne: W + Q = U2 - U1; W et Q sont comptés positivement si l’échange s’effectue du milieu extérieur vers le système et négativement dans le cas contraire. Dans le cas d’un cycle, l’énergie interne du système est la même au début et à la fin du cycle: W + Q = 0. Le second principe de la thermodynamique est le suivant: un système qui décrit un cycle et qui n’est en contact qu’avec une seule source de chaleur est incapable de fournir du travail; ainsi, un moteur ne peut fonctionner, c’est-à-dire fournir un travail W, que s’il existe une source chaude, qui cède une quantité de chaleur Qc au système, et une source froide, à laquelle le système fournit une quantité de chaleur Qf. Le rendement d’un moteur thermique, défini comme le quotient de W par Qc (quotient noté ), est toujours inférieur à 1 en raison de l’existence de Qf; il ne peut excéder o =  1 -Tf/Tc, Tf et Tc désignant les températures thermodynamiques de la source froide et de la source chaude (théorème de Carnot). Le second principe de la thermodynamique permet d’affirmer que l’on ne peut transformer intégralement de la chaleur en travail: l’entropie d’un système isolé a tendance à augmenter.

  Sous sa forme la plus générale, le second principe de la thermodynamique énonce donc l’irréversibilité des phénomènes naturels. Résumons les conséquences de ce principe: impossibilité du transfert spontané de chaleur d’un corps froid à un corps chaud (énoncé de Clausius); impossibilité d’un moteur monotherme, qui utiliserait une seule source de chaleur (énoncé de Kelvin); un moteur ditherme (fonctionnant avec deux sources de chaleur) doit nécessairement recevoir de la chaleur de la source chaude et en céder à la source froide (énoncé de Carnot).

  Il existe un troisième principe de la thermodynamique: l’entropie d’un système est nulle au zéro absolu. La thermodynamique statistique part du principe que les phénomènes macroscopiques observés sont la conséquence d’un très grand nombre de phénomènes microscopiques. En particulier, lorsqu’un gaz est en équilibre, aucune de ses molécules n’est immobile, mais, en moyenne, il n’y a pas de mouvement d’ensemble. La thermodynamique a de très nombreuses applications. Les notions de système et d’entropie jouent un rôle fondamental dans la théorie de l’information. V. entropie, équilibre, température et information.

 

thermoélectronique

 Lorsqu’on chauffe suffisamment une plaque de métal (cathode), celle-ci libère des électrons qui peuvent être collectés par une plaque portée à un potentiel supérieur (anode), créant ainsi un courant électrique dont le sens est, par convention, opposé au sens dans lequel circulent les électrons.

 

topologie Une structure topologique (ou topologie) sur un ensemble X est un ensemble T de parties de X qui satisfait aux conditions suivantes: la réunion de toute famille d’éléments de T appartient à T; l’intersection de toute famille finie d’éléments de T appartient à T (et donc l’ensemble X et sa partie vide appartiennent à T). Le couple formé par X et par T est appelé espace topologique. Les éléments de T sont appelés des ouverts de X et les complémentaires de ces éléments dans X des fermés de X. Ainsi, dans le plan euclidien, un disque (on disait autref. «cercle») sera dit ouvert si l’on considère l’ensemble des points dont la distance au centre est strictement inférieure au rayon du disque et fermé si l’on considère les points dont la distance est inférieure (on disait autref. «inférieure ou égale») au rayon; autrement dit, un disque ouvert ne comprend pas les points appartenant au cercle (dit autref. «circonférence»); ces points appartiennent à la fermeture du disque ouvert. La topologie définit bien d’autres notions, notam. celles de voisinage, d’adhérence et de filtre, qui permettent de formaliser les notions intuitives de borne, de frontière, de limite et de continuité. 

 

transfert

 Psychanalyse. ­ Au cours de la cure, le transfert se manifeste en ce que le patient se met à témoigner à l’analyste qui le soigne une affection exagérée ou une hostilité marquée (ou, le plus souvent, un curieux mélange des deux). Ces sentiments, qui sont sans rapport avec la situation présente, traduisent d’anciens désirs du patient devenus inconscients et que la cure a fait resurgir. Ils sont particulièrement nets lorsqu’il s’agit de l’actualisation d’une situation œdipienne, l’analyste incarnant alors le rôle du père. Freud mit un certain temps avant de découvrir que le transfert était une étape indispensable de la cure, un moyen thérapeutique («le plus puissant de tous»), puisqu’il place l’analyste en présence de l’essentiel de ce qui avait été refoulé. La «névrose de transfert» se substitue à la névrose initiale, ce qui favorisera la découverte de la névrose infantile. Le contre-transfert (ensemble des réactions inconscientes de l’analyste à l’égard de l’analysé et, surtout, de son transfert) doit être réduit par l’analyste, de façon à ne pas «recouvrir» le transfert du patient; il permet d’interpréter des expressions de l’inconscient chez l’analysé; la résonance entre l’inconscient du patient et celui de l’analyste constitue une situation idéale.

 

transformateur

 Électricité. ­ Un transformateur monophasé comporte: un circuit magnétique fermé (empilement de tôles d’acier au silicium) et deux enroulements de fils conducteurs (généralement fil de cuivre isolé) autour d’un noyau. Si l’on applique une tension sinusoïdale u1 aux bornes de l’un des enroulements (on l’appellera enroulement primaire), on obtient une tension sinusoïdale u2 aux bornes de l’autre enroulement dit enroulement secondaire. En alimentant l’enroulement primaire, on produit un flux magnétique qui, grâce au circuit magnétique, traverse l’enroulement secondaire: il y a alors induction d’une force électromotrice dans celui-ci (comme dans tout conducteur qui se trouve dans un flux variable). L’enroulement secondaire est devenu un véritable générateur, ce qui explique que l’on obtienne une tension entre ses bornes et qu’on puisse l’utiliser pour alimenter un récepteur (moteur, résistance, etc.).

 

transgression

 Au cours des temps géologiques, la ligne de séparation entre les océans et les continents n’a pas occupé une position constante. Ces variations s’exercent dans un domaine assez limité qui est celui du plateau continental et des bassins sédimentaires. Le Bassin parisien, le bassin de Londres et la Manche constituèrent un des domaines de ces variations en Europe. La base d’une transgression est caractérisée par le remaniement des roches qui affleuraient à la surface de la région précédemment émergée. Souvent, une ligne de galets, formée à partir des roches de la surface, marque cette base. Un conglomérat de galets emballés dans un ciment gréseux a permis de détecter, pour la première fois, une transgression: celle qui s’est produite en Normandie au cambrien. Les grandes transgressions de l’ère secondaire dans le Bassin parisien ne sont pas marquées par des conglomérats. Cette absence est due à l’avancée des eaux sur une région aplanie: la pénéplaine hercynienne. Sur le plan géométrique, on peut observer que les couches transgressives, horizontales, reposent d’une façon quelconque sur les couches transgressées. Une transgression s’opère en plusieurs dizaines de milliers d’années. Les couches successives qui marquent cette avancée progressive sont donc transgressives les unes par rapport aux autres. La régression est l’inverse de la transgression: la mer se retire des zones continentales qu’elle occupait auparavant. Une régression est caractérisée par l’évolution des facies sédimentaires, qui tendent à devenir moins profonds: aux dépôts calcaires se substituent, dans une même région, des dépôts de gypse ou de sel gemme («évaporites»). De surcroît, l’extension des terrains régressifs est généralement plus faible que celle des terrains antérieurs.

 

transistor

 Les transistors à jonction ont été inventés aux États-Unis en 1948 et, en 1949, Shockley en a établi la théorie définitive: ils associent deux zones aux conductibilités différentes, caractérisées par un excès d’électrons (zone N) ou par un défaut d’électrons (zone P). La zone centrale est appelée base; les deux autres situées de part et d’autre, l’émetteur et le collecteur. On distingue les transistors NPN (la base est une zone P) et PNP (la base est une zone N). Les transistors sont utilisés pour amplifier les signaux; en effet, le courant qui passe par le collecteur (courant de sortie) est sensiblement proportionnel au courant qui passe par la base (courant d’entrée) mais son intensité est beaucoup plus élevée. La découverte des transistors a conduit à l’abandon des tubes dans les montages électroniques, à une diminution de la consommation d’énergie dans ces montages et à la miniaturisation des circuits électroniques.

 

tropisme

 Chez les végétaux, les tropismes se caractérisent par l’orientation des organes en croissance de la plante: l’irrégularité de l’allongement cellulaire est dû à une perturbation de la circulation de l’auxine. Le port général de la plante est largement influencé par des tropismes liés à la lumière (phototropisme), à la pesanteur (géotropisme) et à la répartition des électrolytes dans le milieu (chimiotropisme). Aussi, les feuilles et la tige ont un phototropisme positif (elles s’orientent vers la lumière) et un géotropisme négatif (elles s’opposent à la pesanteur), alors que les racines ont un phototropisme négatif et un géotropisme positif. Chez les animaux, les tropismes sont placés sous le contrôle hormonal et nerveux (pour leur inhibition). Leurs agents, comme pour les végétaux, sont de nature chimique (chimiotropisme, intense chez les insectes) ou physique: phototropisme, thermotropisme (surtout intense chez les animaux à température variable).

 

Trou noir. ­ Au cours de sa vie, une étoile dégage de l’énergie par fusion thermonucléaire en créant une pression suffisante pour compenser les effets de la gravitation. Lorsque son combustible est épuisé, cette pression diminue et l’étoile commence à s’effondrer sur elle-même. Lorsque l’étoile est très massive (10 fois la masse du Soleil), l’effondrement est radical, la densité devient gigantesque et le champ gravitationnel retient les photons: l’étoile n’est plus observable; c’est donc un «trou noir»; l’autre nom utilisé, collapsar, fait allusion à l’effondrement de l’étoile. Les trous noirs ont quelque chance d’être un jour détectés: par leurs effets secondaires s’ils appartiennent à un système composé de plusieurs étoiles; par l’action de leur fort champ de gravitation sur les étoiles voisines.

 

ultrason

Un ultrason s’oppose aux infrasons, dont la fréquence, également non audible, est inférieure à 20 hertz. Les ultrasons se propagent en ligne droite comme les ondes hertziennes millimétriques et les infrarouges, dont la gamme de longueurs d’onde est la même. Ils peuvent former des faisceaux d’une haute énergie. La vitesse de propagation des ultrasons varie avec le milieu traversé (331 m/s dans l’air, 6400 m/s dans l’aluminium). Les ultrasons provoquent des changements de l’indice de réfraction des liquides, donnant naissance à des phénomènes de diffraction. Ils améliorent les propriétés catalytiques de certains corps et produisent dans la matière vivante une désagrégation des noyaux cellulaires, l’éclatement des hématies et l’arrêt des fermentations. On produit les ultrasons au moyen de générateurs piézoélectriques. Les applications des ultrasons sont très nombreuses: contrôle des matériaux, mesure de la vitesse d’écoulement des fluides, usinage, mise en émulsion des peintures, télécommunication et détection sous-marine (échosondeurs et sonars), destruction des micro-organismes, échographie, destruction chirurgicale, microscopie acoustique, holographie, etc.

  Applications médicales. ­ Elles sont de deux sortes: chirurgicales et diagnostiques. En chirurgie, on utilise des ultrasons pour pulvériser certaines structures (cristallin dans le cas de la cataracte, calculs biliaires, rénaux, etc.). En imagerie médicale, l’échographie utilise des ultrasons ayant une fréquence de 1 à 10 mégahertz. Les divers tissus offrent plus ou moins de résistance (impédance) à leur passage; ainsi, la vitesse de traversée est de 4080 m/s pour l’os et de 1450 m/s pour la graisse. La «sonde», mise au contact de la peau, contient un cristal qui, soumis à un champ électrique, émet des ultrasons. À l’interface de deux tissus dont les impédances sont différentes, ces ondes sonores sont largement (voire totalement) réfléchies. Cet écho est capté par la même sonde, puis transformé en signal électrique, lequel est analysé par un ordinateur et visualisé par un écran cathodique. Dérivé de l’échographie, le Doppler, qui repose sur l’effet Doppler (V. Doppler), permet notamment d’examiner le débit sanguin, car les globules rouges réfléchissent les ultrasons que cet appareil émet à l’intérieur d’un vaisseau sanguin ou à proximité. L’analyse de l’écho capté permet de mesurer très précisément la vitesse d’écoulement du sang, de localiser les éventuelles occlusions vasculaires, sténoses, thromboses, de renseigner sur les résultats d’un traitement.

  Le microscope acoustique. ­ Il émet des ultrasons dont la fréquence est de l’ordre du gigahertz, en direction d’objets infimes, capte l’écho et traite informatiquement celui-ci.

  Zoologie. ­ De nombreux animaux (les chauves-souris et les dauphins, notamment) utilisent les ultrasons, qu’ils sont aptes à percevoir et à émettre, pour se diriger et pour localiser leurs proies la nuit, par réverbération acoustique à hautes fréquences (écholocation).

 

ultraviolet

  Les rayonnements ultraviolets ont un pouvoir ionisant très élevé. Ceux qui proviennent du Soleil ionisent les gaz de la haute atmosphère et sont à l’origine de l’ionosphère. Les rayons ultraviolets sont fortement absorbés par les cellules vivantes qu’ils modifient (pigmentation de la peau, multiplication des globules sanguins, parfois cancers). La couche d’ozone de la haute atmosphère nous protège de l’action néfaste des ultraviolets. (V. ozone.) Les ultraviolets impressionnent les émulsions photographiques et excitent la fluorescence de certaines substances (tubes fluorescents à vapeur de mercure).

 

unicellulaire

  Les êtres vivants unicellulaires, nombreux et variés, constituent une part importante de la biosphère. Ils appartiennent à tous les règnes: bactérien, végétal (algues unicellulaires, champignons unicellulaires), animal (protozoaires). Rappelons que les bactéries sont des procaryotes et que les eucaryotes unicellulaires animaux et végétaux sont nommés des protistes. Le terme de micro-organisme recouvre les unicellulaires et les virus. V. aussi plancton. Les unicellulaires se regroupent parfois en colonies. Les cellules restent jointives ou voisines après leur division; une gelée les unit; elles ont toutes les mêmes propriétés. Si l’on extrait une des cellules, celle-ci reforme une autre colonie. Les pneumocoques forment des colonies de deux cellules. Les streptocoques forment une chaîne. Certaines algues vertes forment une sphère creuse contenant des milliers de cellules. Certains champignons myxomycètes et certains flagellés ont les deux états: individuel et colonial. On notera que les levures, unicellulaires, dérivent de champignons ascomycètes dont les filaments se sont désarticulés en cellules individuelles.

 

unité

 Physique. ­ Une unité est une grandeur de référence à laquelle on se rapporte pour mesurer des grandeurs de même nature (le terme grandeur désignant tout ce qui est susceptible d’augmenter ou de diminuer, d’être plus ou moins étendu, plus ou moins intense). Pour qu’une grandeur soit mesurable, il faut pouvoir définir l’égalité et l’addition de deux grandeurs de même nature. Ainsi une longueur est une grandeur mesurable, tandis qu’une température (repérée sur l’échelle Celsius, par ex.) n’est pas véritablement mesurable, car on peut définir l’égalité de deux températures mais non leur somme. Pour comparer deux grandeurs de même nature, on définit une grandeur particulière qui servira de référence et qu’on appelle unité. Chez les peuples primitifs, les unités utilisées sont choisies indépendamment les unes des autres, en faisant abstraction des relations qui peuvent exister entre elles et en faisant référence à des actes de la vie courante. Ainsi une longueur sera exprimée en pas s’il s’agit d’une distance et en pouces s’il s’agit d’un objet, tandis que la mesure d’une surface agraire sera exprimée en fonction du nombre de jours nécessaires pour la cultiver. Le développement des sciences exactes a conduit à l’élaboration de systèmes d’unités cohérentes entre elles, définies avec précision et de caractère universel. Le système métrique, qui n’admet que des multiples et sous-multiples décimaux, a été le premier système d’unités cohérentes universel. Il a été établi en France par la loi du 7 avril 1795. (V. métrique.) Depuis 1960, la Conférence générale des poids et mesures a adopté le système métrique à sept unités de base, appelé système international (SI). Il a remplacé les anciens systèmes M.K.p.S., C.G.S., M.T.S. et M.K.S.A., qui doivent leurs noms aux symboles des unités fondamentales qu’ils utilisaient. Les sept unités fondamentales du système SI sont le mètre (longueur), le kilogramme (masse), la seconde (temps), l’ampère (intensité d’un courant électrique), le kelvin (température thermodynamique), la candela (intensité lumineuse) et la mole (quantité de matière). L’ensemble de ces unités permet de définir des unités dérivées, en particulier le newton (force), le joule (énergie), le watt (puissance), le pascal (pression) et le hertz (fréquence). Un poids, qui est une force, doit donc s’exprimer en newtons (et non en kilogrammes) et une pression en pascals (et non en atmosphères, en bars ou en millimètres de mercure). En outre, des unités supplémentaires comprennent le radian, le stéradian et leurs dérivés. Certaines unités hors système, c’est-à-dire susceptibles de s’exprimer à partir de celles du système SI, subsisteront du fait de leur emploi universel (degré Celsius, grade, minute, heure, jour, watt-heure et électronvolt, en particulier), tandis que d’autres sont condamnées (calorie, thermie, frigorie, bar, dyne, poise, stokes, etc.). V. liste des unités.

 

Univers,

 ensemble des corps célestes et de l’espace (naguère considéré comme infini) où ils se meuvent. Contestée encore au début des années 1950, la théorie selon laquelle l’Univers a commencé par une gigantesque «explosion», le big bang, est devenue la base de la cosmologie moderne, car elle explique les propriétés fondamentales de l’Univers, en particulier son expansion, qu’avait mise en évidence l’Américain Edwin Hubble dans les années 1930. Il y a environ 15 milliards d’années, l’Univers était infiniment condensé et chaud. Le big bang transforma cet état singulier en une entité dont l’évolution obéit aux lois de la relativité générale. Les récents progrès de la physique des particules ont permis de décrire l’histoire de l’Univers à partir de l’instant t = 10-4³ s après le big bang: son diamètre est alors de 10-²8 cm et sa température de 10³² K; il est dans un état de «vide quantique». Pendant la période qui s’étend de t = 10-³5 s à t = 10-³² s, l’Univers traverse une phase d’inflation (expansion très rapide) au début de laquelle les quarks, les électrons, les neutrinos et leurs antiparticules vont surgir du vide, avec un très léger excédent de matière par rapport à l’antimatière (un milliard de particules plus une sont créées contre un milliard d’antiparticules). Cette «soupe» de particules reste présente jusqu’à t = 10-6 s, quand la température devient suffisamment basse (10¹³ K) pour que les associations de quarks restent stables sous forme de protons, de neutrons et de leurs antiparticules. Particules et antiparticules vont s’annihiler les unes les autres, aboutissant à un Univers dominé par le rayonnement (ère radiative) et où ne subsiste qu’un infime résidu (un milliardième) de particules. La nucléosynthèse primordiale se déroule entre t = 3 min et t = 30 min: protons et neutrons peuvent s’assembler en noyaux atomiques légers tels que l’hélium, l’élément le plus abondant de l’Univers avec l’hydrogène. À t = 500000 ans, l’Univers s’est assez refroidi (3000 K) pour que les atomes deviennent stables; liés aux protons et noyaux atomiques, les électrons ne s’opposent plus au rayonnement, qui se dissocie de la matière: l’Univers est devenu transparent. Ce rayonnement qui baigne tout l’Univers est encore perceptible aujourd’hui, mais sa température caractéristique n’est plus que de 2,7 K en raison de l’expansion de l’Univers; en effet, celle-ci s’est poursuivie pendant les 15 milliards d’années qui se sont écoulées depuis la période de dissociation. En 1965, la découverte de ce rayonnement «fossile» (dit cosmologique) par les Américains Arno Penzias et Robert Wilson apporta une confirmation décisive à la théorie du big bang. Depuis la phase de dissociation, l’évolution de l’Univers est déterminée par la gravitation. Si sa densité moyenne est supérieure à la densité critique (env. 5 × 10-³0 g/cm³), les forces de liaison gravitationnelle l’emporteront sur l’expansion, qui finira par s’inverser: une phase de contraction ramènera l’Univers à son point initial (Univers fermé). Sinon, l’Univers est condamné à se dilater éternellement (Univers ouvert). Les estimations de la densité de l’Univers sont encore beaucoup trop imprécises pour déterminer si l’Univers est ouvert ou fermé. V. Galaxie, Soleil, Terre, Pluton, Neptune, etc.

 

université L’Université est née au cours du Moyen Âge et dépendait alors du clergé. Sous l’Ancien Régime, les universités étaient créées par une charte royale. Une charte de Philippe Auguste fonda en 1200 l’université de Paris (nommée par la suite Sorbonne), qui connut son apogée du XIIIe au XVe s.; à partir du XVIe s., son opposition à la Renaissance humaniste entraîna son déclin. En province, d’autres universités virent le jour (notam. à Toulouse et à Montpellier). En 1806, Napoléon fit de l’Université l’organisation nationale de l’enseignement, caractérisée par: le monopole d’État de l’enseignement; une structure fortement hiérarchisée; une discipline de type militaire. Tout au long du XIXe s. et surtout sous la IIIe République, on assista à une «démilitarisation» de l’Université et à un dépérissement du monopole. Par la suite, le terme d’université désigna le groupe de facultés dépendant d’une même académie (V. ce mot, sens 3). L’accroissement considérable du nombre des étudiants (lié à la démocratisation de l’enseignement) a fait craquer les vieilles structures (assujettissement financier des universités à l’État, cloisonnement affectant les relations entre les facultés). Dans le sillage de mai 1968, l’université «napoléonienne» a été vivement critiquée et trois principes ont été avancés: l’autonomie (au point de vue administratif, pédagogique et financier), la participation (association enseignants-étudiants pour le choix des objectifs), la pluridisciplinarité. Mais les gouvernements successifs n’ont accompli aucune réforme radicale. À partir du premier «gouvernement de cohabitation» (gouvernement de droite sous un président socialiste: 1986-1988), l’idée d’une privatisation de certaines universités ou de la création d’universités privées (comme aux États-Unis) a été énoncée. Parallèlement, la liaison entre l’université et l’industrie privée préoccupe les esprits, ainsi que la formation permanente, depuis les années 1980.

 

uranium

 Très réactif, l’uranium se combine avec la plupart des non-métaux. On le trouve à l’état d’oxyde UO2 dans la pechblende, que l’on traite pour obtenir l’uranium, ou sous forme de fluorure UF6, produit de départ pour la séparation des isotopes de l’uranium: l’uranium 238 (99,3 %) et l’uranium 235 (0,7 %). L’uranium naturel, radioactif, tend, par une série de transmutations, à se transformer en plomb 206. L’uranium 235 étant le plus intéressant lors des réactions de fission nucléaire, on enrichit l’uranium naturel en uranium 235 par séparation isotopique (diffusion gazeuse ou ultracentrifugation). En dehors des usages militaires, l’uranium est utilisé comme combustible dans les centrales nucléaires. Avec le modérateur et le fluide caloporteur il forme une filière; si le modérateur est de l’eau lourde ou du graphite, et le fluide du dioxyde de carbone (CO2), on parle de filière uranium-eau lourde-gaz ou de filière uranium-graphite-gaz. L’uranium est très rare; seuls quelques pays en extraient de leur sous-sol (France, notamment).

 

vanadium Chim. ­ Réducteur, le vanadium possède de nombreux degrés d’oxydation. On l’utilise pour fabriquer des aciers spéciaux résistant à l’usure et aux chocs (ressorts, soupapes, outils à grande vitesse).

 

vaporisation

 Phys. ­ La vaporisation d’un liquide cesse dès que la pression de la vapeur qui surmonte ce liquide atteint une valeur, qui dépend de la température, appelée pression ou tension de vapeur saturante. Lorsqu’on chauffe un liquide, il arrive un moment où la pression de vapeur saturante devient égale à la pression ambiante. Il y a alors ébullition. À l’air libre, si la pression ambiante est inférieure à la pression de vapeur saturante, la vaporisation n’est pas limitée: il y a évaporation. La vaporisation se produit toujours avec absorption de chaleur, soit par refroidissement du liquide, soit par apport de chaleur (par ex., ébullition, s’effectuant à température constante, d’un liquide que l’on chauffe). Cette chaleur est restituée par la vapeur lorsque celle-ci se condense. Dans les moteurs à vapeur, l’énergie fournie par le combustible de la chaudière (source chaude) transforme l’eau en vapeur, laquelle en se détendant dans la turbine fournit de l’énergie mécanique. Une source froide permet la condensation de la vapeur qui sera à nouveau vaporisée.

 

végétal

 Un végétal sur dix n’existe plus ou est en voie de disparition. Quinze mille espèces doivent être protégées si l’on veut éviter un appauvrissement irréversible du monde végétal. L’une des raisons de cette disparition est la sélection entreprise par l’agriculture. Dans de nombreux pays tropicaux, l’agriculture a introduit des plantes commerciales aux dépens des cultures vivrières. De nos jours, une vingtaine de plantes (sur 800000 espèces) assurent l’essentiel de l’alimentation humaine: céréales (blé, riz, maïs, mil, sorgho); tubercules (pomme de terre, patate douce, manioc); légumineuses (pois, haricots, arachides); betterave, banane, noix de coco, canne à sucre. Leur production en monocultures en font un fragile rempart contre la famine, car les récoltes massives sont à la merci des intempéries, d’une maladie ou d’une nuée d’insectes. La sururbanisation et la pollution sont d’autres facteurs de disparition, sinon de fragilisation face aux bactéries, aux champignons ou aux insectes. Tel est le cas du platane qui, placé vers 1920 dans les jardins publics, les places et le long des avenues, dépérit; un champignon aérien, le Ceratocystis, est responsable de ce dépérissement.

  L’énergie végétale. ­ Les végétaux chlorophylliens transforment l’énergie solaire en énergie chimique. Grâce à celle-ci, ils se développent. Aujourd’hui, l’homme vise à libérer la puissance qu’ont stockée ces capteurs solaires naturels. Les déchets agricoles et domestiques constituent un capital exploitable. Le fumier (produit animal, mais d’origine exclusivement végétale) fermente et dégage du méthane. Ce gaz ou ses dérivés (transformés en carburant) peuvent alimenter des moteurs. Chaque ruminant donnerait l’équivalent de 150 à 200 litres de pétrole par an.

 

vent

 Météorologie. ­ Les vents sont constitués par de l’air en mouvement. La cause essentielle des mouvements de l’air réside dans les différences de pression atmosphérique et de température entre les diverses régions du globe. Les vents sont sensiblement parallèles aux isobares (lignes d’égale pression) et tournent, à cause de la rotation de la Terre, en laissant les centres de hautes pressions sur leur droite dans l’hémisphère Nord et sur leur gauche dans l’hémisphère Sud. L’ensemble des mouvements aériens qui animent l’atmosphère a un aspect ordonné quand on le regarde à une assez grande échelle, par ex. à partir de satellites. Les alizés sont des vents réguliers. Les moussons, en revanche, présentent un caractère saisonnier. À plus petite échelle, la distribution réelle de la pression atmosphérique et le relief entraînent la formation des vents particuliers; ainsi soufflent, en France, le mistral, la tramontane et l’autan, dans d’autres régions du globe le fœhn, le sirocco, etc. Leur énergie (dite éolienne) peut être utilisée par l’homme, l’utilisation la plus simple étant l’antique moulin à vent. Le vent est un important agent d’érosion, car les poussières et particules qu’il transporte viennent frapper les reliefs. Dans les régions très ventées, le vent modifie la forme des végétaux qui se développent préférentiellement dans le sens des vents dominants (formation d’arbres en drapeau). Pour des végétaux comme les arbres à chatons (amentiflores tels le hêtre, le noyer) et les graminées, le vent est le principal agent de pollinisation (anémophilie).

 

vibration

 Physique. ­ Une vibration est une oscillation périodique, c’est-à-dire qui se répète identiquement à elle-même à des intervalles de temps égaux. Le plus petit de ces intervalles, la période de la vibration, s’exprime en secondes et son inverse, la fréquence, en hertz. Une vibration sinusoïdale est une vibration dont l’élongation (c’est-à-dire la distance à laquelle se trouve le point en vibration par rapport à sa position d’équilibre) s’exprime, en fonction du temps t, par la fonction sinusoïdale y = a sin (t + ) dans laquelle a est l’amplitude, c’est-à-dire l’élongation maximale,  la pulsation (reliée à la période T et à la

fréquence f par les formules  = / = 2f) et  la phase, qui caractérise la

position du point en vibration à l’instant T = 0. Toute vibration peut se décomposer en une somme de vibrations sinusoïdales de fréquences f, 2f, 3f, etc., la fréquence f étant appelée fréquence fondamentale (théorème de Fourier). Les vibrations se propagent dans un milieu par transport d’énergie d’un point à un autre et non par déplacement de matière. Cette propagation s’effectue à une vitesse V; la longueur   dont se propage le mouvement au cours de la période T est appelée longueur d’onde ( = VT). Les forces de frottement dans un milieu donné s’opposent à la propagation des vibrations; celles-ci s’amortissent donc au fur et à mesure que l’on s’éloigne de la source, avec diminution de l’amplitude jusqu’à disparition complète du mouvement. L’étude des vibrations touche de nombreux domaines scientifiques (en particulier optique, électromagnétisme, radioélectricité, acoustique) et techniques (élimination des phénomènes de résonance dus aux machines tournantes, isolation phonique, etc.).

 

vide

Technique. ­ Pour réaliser un vide poussé, on utilise une pompe primaire, qui réduit la pression jusqu’à environ 0,1 Pa (pompe rotative à palettes ou pompe absorbant les gaz portés à basse température), puis une pompe secondaire, qui permet de réduire la pression jusqu’au niveau souhaité (les turbopompes moléculaires et les pompes à diffusion permettent d’atteindre 10-6 Pa). Les pressions les plus faibles obtenues jusqu’à présent sont d’environ 10-¹¹ Pa. On utilise le vide dans de très nombreux domaines scientifiques et industriels: microscopie électronique, obtention de métaux de très grande pureté, semiconducteurs, lyophilisation, simulation du milieu spatial, anneaux de collision des accélérateurs de particules, etc. Rappelons que l’unité SI de pression est le pascal (Pa), qui vaut environ le cent millième de la pression atmosphérique. On mesurait autrefois le vide en torrs (équivalant environ au millième de la pression atmosphérique).

 

virus

Les virus sont tous des parasites, ce qui laisse penser qu’il s’agit d’organismes régressés, simplifiés, et non des formes primitives de la vie. V. vie. Ils prolifèrent en synthétisant les acides nucléiques de la cellule parasitée. V. nucléique, désoxyribonucléique et ribonucléique. La particule virale a une partie centrale, le virion, constituée d’acide nucléique (A.D.N. ou A.R.N.) et qu’enveloppe une coque, la capside, formée essentiellement de protéines. Autour de la capside peut exister une nouvelle enveloppe, qui contient des éléments de la cellule hôte et assure, semble-t-il, un «camouflage» immunitaire. Les virions sont disposés de façon très régulière, géométrique et, selon leur forme, on distingue trois grandes classes: 1. les virus à symétrie cubique, où les virions forment des solides polyédriques, et à l’intérieur desquels l’acide nucléique se présente sous forme de filaments enchevêtrés; 2. les virus à structure hélicoïdale, où les virions présentent un canal central entouré d’un cylindre d’acide nucléique aux filaments régulièrement agencés et entouré d’un manchon; 3. les virus à structure double, dont les virions possèdent une tête à structure cubique et une sorte de queue à structure spiralée; ce sont les principaux bactériophages. La nature biochimique du virion permet de déterminer deux grands groupes: les virus à A.D.N. et les virus à A.R.N., dits aussi rétrovirus. Dans le premier groupe, le virion est constitué par un fragment d’A.D.N. capable de s’insérer sur des sites particuliers de l’A.D.N. chromosomique de la cellule parasitée. Dans le second groupe, exceptionnel parmi les êtres vivants, le virion ne possède que de l’A.R.N. Lors de l’infection virale, l’enveloppe du virion, grâce à sa nature de membrane cytoplasmique, se met en continuité avec celle de la cellule parasitée. De la vésicule ainsi formée, le contenu est libéré dans le cytoplasme selon un processus qui rappelle la phagocytose et le virion est dissocié (phase d’éclipse) comme s’il était digéré; bien qu’il ne soit plus détectable, il n’est pas détruit et la cellule élabore les constituants nécessaires à sa multiplication. Les virus à A.R.N. (dont font partie, notamment, le virus de la grippe et celui du sida) présentent deux modes de multiplication. Au cours de la phase d’éclipse, les molécules d’A.R.N. viral peuvent être répliquées en nouvelles molécules d’A.R.N. viral, sous l’effet d’enzymes; chez certains virus à A.R.N., une enzyme, la transcriptase-inverse, peut transcrire une copie sur une molécule d’A.D.N. (opération inverse de celle qui se déroule normalement lors de la protéosynthèse). Quant aux virus à A.D.N., ils détournent une partie des mécanismes de protéosynthèse à leur profit. On estime que la plupart des virus peuvent avoir: soit une activité pathologique banale et spécifique; soit une activité génétique et cancérigène; les conditions physico-chimiques de l’environnement cellulaire chez l’organisme parasité jouent un rôle majeur dans les diverses activités virales. Les antibiotiques sont impuissants face aux virus. En revanche, vaccination et sérothérapie sont possibles. Contre les virus, l’organisme se défend spontanément en élaborant des interférons. V. interféron.

 

viscosité 

 Phys. ­ Les forces de viscosité ont une très grande importance pratique, car elles conditionnent l’écoulement des fluides dans les canalisations et le long des parois. La viscosité dynamique des gaz augmente avec la température, mais ne varie pratiquement pas avec la pression. Celle des liquides décroît avec la température, mais croît fortement avec la pression. Celle des liquides décroît avec la température mais croît fortement avec la pression. Exprimée en poiseuilles, la viscosité dynamique de l’eau est égale à 10-³; celle de la glycérine à 0,85. V. verre.

 

vitesse

 En physique, d’une manière générale, le mot vitesse exprime le quotient d’un espace (ou d’un angle) et d’un temps. Ainsi, la vitesse linéaire d’un mobile dont la trajectoire est en principe une droite s’obtient en faisant le quotient de l’espace parcouru et du temps mis à le parcourir. Si ce quotient est constant, le mouvement est dit uniforme; dans le cas contraire, il est dit varié. Pour un mouvement varié, il faut distinguer les notions de vitesse moyenne et de vitesse instantanée. L’unité de vitesse linéaire du système international est le mètre par seconde (symbole: m/s). On utilise aussi des multiples ou des sous-multiples. Dans le langage courant on emploie le kilomètre par heure (à tort souvent appelé le kilomètre-heure); 1 km/h  0,278 m/s. Dans le cas où la trajectoire est une courbe, il est possible d’assimiler l’arc parcouru pendant un intervalle de temps infiniment petit à un segment de droite. La vitesse linéaire déterminée dans ces conditions porte aussi le nom de vitesse tangentielle. La vitesse linéaire ayant les caractéristiques d’une grandeur vectorielle, on peut la représenter par un vecteur dont la droite d’action est la tangente à la trajectoire au point considéré. On peut également considérer non plus l’arc parcouru, mais l’angle au centre qui lui correspond. Le quotient prend alors le nom de vitesse angulaire du mobile et a pour symbole . On l’exprime en radians par seconde (rd/s). Dans le cas d’un mouvement circulaire uniforme, c’est-à-dire dont la vitesse angulaire est constante, on indique souvent, non pas cette vitesse angulaire, mais le nombre n de tours effectués en une minute; cette grandeur est la fréquence de rotation du mouvement. Pour un mobile de vitesse linéaire v, de vitesse angulaire , sur une trajectoire circulaire de rayon r, on peut écrire les relations suivantes: v = r; v =  2 n/30;  =  n/30. En ce qui concerne la célérité (terme préférable à vitesse de la lumière), V. lumière.

  Zoologie. ­ Vitesses atteintes par quelques animaux: le guépard peut dépasser 100 km/h, un cheval de course 70 km/h, un faucon pèlerin en piqué 300 km/h. Des cailles traversent la Méditerranée, de la Tunisie au Latium, en sept heures, soit à une moyenne de 70 km/h. Les libellules atteignent 80 km/h. Contrairement à la légende, la mouche ne peut se déplacer à la vitesse du son, c’est-à-dire à environ 330 m/s: à une telle vitesse, l’insecte se consumerait en vol. L’homme se déplace à des vitesses plus modestes: le recordman du monde du 100 m dépasse à peine les 36 km/h!

 

Wilson (Charles Thomson Rees) (Glencorse, Écosse, 1869 ­ Carlops, Borders, 1959), physicien écossais. Il mit au point en 1912 la chambre de Wilson, chambre d’ionisation contenant de l’air saturé de vapeur d’eau. P. Nobel de physique 1927 avec A. H. Compton.

 

Wilson (Kenneth Geddes) (Waltham, Massachusetts, 1936), physicien américain; connu pour son importante contribution à l’étude des transitions de phase. P. Nobel de physique 1982.

 

Wilson (Robert Woodrow) (Houston, 1936), radioastronome américain. On lui doit la découverte (1965) du rayonnement thermique du fond du ciel. P. Nobel de physique 1978 avec A. Penzias et P. L. Kapitsa.

 

Windaus (Adolf), chimiste allemand (Berlin, 1876 ­ Göttingen, 1959). Il reçut le prix Nobel de chimie en 1928 pour ses travaux sur les stérols et la synthèse biologique de la vitamine D.

 

Winnicott (Donald Woods) (Plymouth, 1896 ­ Londres, 1971), pédiatre et psychanalyste anglais. Il étudia partic. le développement psychique de l’enfant dès sa naissance (soulignant l’importance de ses rapports avec sa mère).

 

Wöhler (Friedrich) (Eschersheim, Hesse, 1800 ­ Göttingen, 1882), chimiste allemand. Il isola l’aluminium (1827), le béryllium, le bore, et réalisa la première synthèse de chimie organique, celle de l’urée, et une préparation de l’acétylène.

 

Wolff (Étienne) (Auxerre, 1904 ­ Paris, 1996), biologiste français. Ses travaux d’embryologie et de tératologie le conduisirent à provoquer expérimentalement l’inversion du sexe chez des embryons d’animaux ainsi qu’à cultiver in vitro des tissus embryonnaires. Acad. fr. (1971).

 

Wollaston (William Hyde) (East Dereham, Norfolk, 1766 ­ Londres, 1828), médecin, chimiste et physicien anglais. Il perfectionna la pile de Volta. Pionnier de la spectroscopie, il découvrit les lignes noires du spectre solaire. Il isola le palladium et le rhodium.

 

Wood (Robert Williams) (Concord, Massachusetts, 1868 ­ Amityville, État de New York, 1955), physicien américain; connu pour ses travaux d’optique et de spectroscopie. ¶ OPT Lumière de Wood ou lumière noire: rayonnement ultraviolet provoquant la fluorescence de certaines substances.

 

Woodward (Robert Burns) (Boston, 1917 ­ Cambridge, Massachusetts, 1979), chimiste américain. Il réalisa de nombr. synthèses organiques: quinine, cholestérol, cortisone, chlorophylle (1961). P. Nobel de chimie 1965.

 

Woolley (sir Charles Leonard), archéologue britannique (Londres, 1880 ­ id., 1960). Il est surtout connu pour ses fouilles d’Our (1922-1944), qui contribuèrent grandement à la résurrection de la civilisation sumérienne. Il y découvrit les célèbres tombes royales et retrouva les traces d’un déluge dans ses stratigraphies. Il publia The Sumerians (1928), Ur of the Chaldees (1929) et A Forgotten Kingdom (1953).

 

Wurtz (Charles Adolphe) (Strasbourg, 1817 ­ Paris, 1884), chimiste français; l’un des créateurs de la théorie atomique. Il découvrit les amines, le glycol et l’aldol.

 

zéro

 Physique. ­ On désigne par zéro absolu la valeur la plus basse de l’échelle des températures absolues (ou thermodynamiques). Cette valeur minimale peut être déduite de l’équation d’état des gaz parfaits: la pression du gaz étant constante, son volume massique (c’est-à-dire le volume de l’unité de masse) est proportionnel à la température absolue; le zéro absolu est donc la température qui correspond à un volume massique nul. Actuellement, la température absolue (T), dont l’unité est le kelvin, est définie par la relation: T = t + 273,15; t est la température mesurée à l’échelle Celsius, qui est définie par sa valeur correspondant au point triple de l’eau, à savoir t = 0,01 °C. Le zéro absolu (T = 0) correspond donc à la température Celsius t = - 273,16 °C. Le procédé de refroidissement consistant à soumettre un gaz à une série de détentes adiabatiques suivies chacune d’une compression isotherme n’a qu’une portée limitée. Pour obtenir des températures plus basses, on a recours à la démagnétisation adiabatique de certaines substances; la température minimale que l’on peut obtenir est de l’ordre de 0,01 à 0,001 K. On réalise un refroidissement encore plus poussé en soumettant à la démagnétisation les noyaux atomiques, au lieu des électrons comme dans le cas précédent; ce procédé permet d’obtenir des températures de l’ordre de 10-6 K. La détermination d’une telle température est effectuée en traçant dans un diagramme des courbes correspondant chacune à une valeur fixe du champ magnétique et, en particulier, à un champ nul.

 

zirconium

 Le zirconium a une masse volumique (6,5) plus élevée que celle du titane. Résistant bien à la corrosion et absorbant peu les neutrons thermiques, il est utilisé pour gainer les éléments fissiles introduits dans les réacteurs nucléaires.

 

zoologie

 La zoologie est un ensemble de disciplines dont chacune envisage le règne animal sous un angle différent: systématique, écologie, psychologie (qui correspond presque à l’éthologie), paléontologie, etc. C’est surtout à la lumière des découvertes paléontologiques que de grandes modifications ont été apportées à la classification de certains groupes; ainsi, les poissons sont apparus comme un ensemble extrêmement artificiel, d’où les agnathes (lamproies) doivent être exclus et qu’il faut scinder en deux groupes distincts: les poissons osseux et les poissons cartilagineux; il en va de même des reptiles. Pour définir une espèce animale, l’aspect extérieur n’est plus le seul critère; le systématicien utilise les données biochimiques, cytologiques, sérologiques, l’étude du chant ou des cris (donc du «langage») de certaines espèces, etc.; il établit des statistiques concernant telle espèce, tel biotope, telle population, etc., et les traite informatiquement. V. cladisme.

  L’inventaire de la faune de la planète est loin d’être terminé. Plusieurs animaux de grande taille ont encore été découverts au XXe  s., notam. dans la grande forêt d’Afrique tropicale (okapi, hippopotame nain, paon congolais, etc.), en Asie (varan de Komodo), en Amérique du Sud, dans l’océan Indien (cœlacanthe). Les découvertes ont été beaucoup plus abondantes parmi les espèces de petite taille au cours de l’exploration des eaux douces, des cavernes et, surtout, des océans. Parmi les grands embranchements d’animaux, les classifications retiennent notam.: protozoaires; spongiaires; cnidaires; plathelminthes; némathelminthes; mollusques; annélides; pararthropodes; arthropodes; échinodermes. Le dernier embranchement, celui des cordés, aboutit à l’homme. Il comprend trois sous-embranchements: tuniciers (ascidies, par ex.), céphalocordés (amphioxus), vertébrés. Le sous-embranchement des vertébrés comprend: agnathes, poissons cartilagineux, poissons osseux, amphibiens, reptiles, oiseaux, mammifères; on ne sait pas encore si les reptiles sont issus des amphibiens ou des crossoptérygiens (poissons osseux dont le seul représentant actuel est le cœlacanthe); en revanche, il est acquis que certains reptiles (dinosaures avipelviens) ont donné naissance aux oiseaux et d’autres (reptiles mammaliens) aux mammifères.

 

zoopsychologie

 Les zoopsychologues s’attachent de plus en plus à l’étude du comportement des animaux  dans leur milieu naturel. Les expériences de dialogue avec les singes anthropomorphes se multiplient. Deux psychologues de l’université du Nevada, R. A. et B. Gardner avaient réussi, dès les années 1960, à engager le dialogue avec un chimpanzé femelle, à laquelle ils avaient appris le langage gestuel des sourds-muets. Au bout de quatre ans, la guenon, Washoe, connaissait 132 signes. Elle fit preuve de généralisation et d’abstraction. Elle parvint à combiner plusieurs signes pour signifier, par ex., «Donne-moi nourriture» ou «Emmène-moi voir fleurs». Un autre psychologue américain a employé des jetons en plastique, qui matérialisent des symboles et qui peuvent être collés sur un tableau. Une troisième méthode de dialogue consiste à  utiliser un ordinateur relié à un clavier sur lequel tape le singe. Une psychologue de l’université de Stanford, en Californie, a appris le langage gestuel à une femelle gorille, Koko. Celle-ci, qui possède un vocabulaire de plusieurs centaines de mots, est la vedette du film de Barbet Schroeder: Koko, le gorille qui parle (1977). Les animaux n’ont vraisemblablement pas de «langage» au sens humain. Le dauphin dispose d’un protolangage, c’est-à-dire d’un langage sans syntaxe. En dehors des primates et des cétacés, les animaux qui intéressent le plus les zoopsychologues demeurent les oiseaux et les insectes sociaux. La découverte des phéromones a permis de mieux comprendre les communications au sein de colonies d’insectes. Les capacités sensorielles ont donné lieu à de nombreux travaux; ils ont permis la découverte d’organes tout à fait inattendus, comme la fossette, grâce à laquelle les serpents sont sensibles aux rayons calorifiques. L’étude de l’orientation des animaux migrateurs a progressé: les oiseaux utilisent le soleil et les étoiles comme repères et, sans doute, le champ magnétique; les poissons se guident par leur odorat.