Les sciences
En cours d'élaboration
Ariès (Philippe) (Blois, 1914
Toulouse, 1984), historien français spécialisé dans l’histoire des
mentalités: Histoire des populations françaises et de leurs
attitudes devant la vie depuis le XVIIIe siècle (1948), l’Enfant et
la vie familiale sous l’Ancien Régime (1960), Images de l’homme
devant la mort (1983).
Baade (Walter), astronome américain
d’origine allemande (Schröttinghausen, Westphalie, 1893
Göttingen, 1960), connu pour sa détermination de la structure de la
Voie lactée, pour ses mesures de la distance de différentes galaxies
et pour l’identification d’étoiles individuelles dans la nébuleuse
d’Andromède. Il a contribué à l’étude des sources
radioastronomiques.
Babbage (Charles) (Teignmouth, 1792
Londres, 1871), mathématicien anglais; il a construit l’une des
premières machines à calculer.
béhaviorisme ou behaviourisme PSYCHO
Doctrine, élaborée à partir de 1913 aux É.-U. par J. B. Watson, qui
propose de substituer une psychologie du comportement à une
psychologie introspective qui cherchait à décrire et à expliquer les
«états de conscience».
Bernoulli (Jean Ier) (Bâle, 1667
id., 1748), mathématicien suisse; il poursuivit avec son frère
Jacques Ier, puis, après sa brouille avec celui-ci, avec ses fils,
les travaux d’analyse mathématique de Leibniz (calculs différentiel
et intégral).
corpuscule PHYS Vx Minuscule élément de
matière.
corpusculaire adj. PHYS NUCL. Dimensions
corpusculaires. ¶ Théorie corpusculaire, fondée sur la discontinuité
de la matière et de l’énergie.
cosmochimie
Les
poussières interstellaires représentent environ 2 % de la masse
totale de la Galaxie. Leur dimension est de l’ordre de 0,1
micromètre. Une grande partie des éléments lourds (fer, aluminium,
silicium) présents dans le milieu interstellaire se condense sur ces
grains de poussières, qui jouent le rôle de catalyseurs. Alors se
forment des combinaisons chimiques. Le radical CH
(carbone-hydrogène) fut le premier découvert, en 1937, suivi de CN
(carbone-azote) en 1940. Parmi les plus importantes molécules, dont
probablement le rayonnement cosmique (flux de protons d’une grande
énergie) permet la synthèse, citons l’alcool méthylique, le
formaldéhyde, l’acide formique, l’acide cyanhydrique, l’acétylène et
l’éther; trois d’entre elles sont particulièrement importantes
(H2CO, HCN, HC3N), car elles interviennent dans la synthèse des
acides aminés, à l’origine de la vie.
couleur Phys. Un corps apparaît
coloré parce qu’il ne diffuse et ne réfléchit qu’une partie de la
lumière blanche qu’il reçoit, ou parce qu’il émet lui-même de la
lumière s’il est porté à une température suffisante. On peut
décomposer une lumière blanche à l’aide d’un prisme; les couleurs
fondamentales sont le rouge, l’orangé, le jaune, le vert, le bleu,
l’indigo et le violet. Deux couleurs dont la superposition donne la
teinte blanche sont appelées complémentaires (par ex. le violet est
la couleur complémentaire du jaune). Une couleur quelconque peut
être créée à partir des trois couleurs primaires (le rouge, le jaune
et le bleu) ou de leurs couleurs complémentaires. C’est le principe
de la quadrichromie, utilisé dans l’imprimerie, la photographie, le
cinéma et la télévision.
courbure
Courbure de l’Univers. La
loi d’attraction universelle s’explique en relativité générale par
la courbure de l’espacement (à quatre dimensions). La distance entre
deux points dépend de leur position dans l’espace et dans le temps,
de la vitesse de la lumière, d’un facteur d’échelle et d’un
coefficient: égal à 1 (courbure positive, espace fini à géométrie
sphérique), égal à 0 (courbure nulle, espace euclidien) ou égal à -
1 (courbure négative, espace hyperbolique).
cristal
Un
cristal est composé d’un assemblage d’atomes, d’ions ou de molécules
régulièrement répartis selon les trois directions de l’espace. On
distingue les cristaux: à liaisons covalentes (diamant: atomes de
carbone liés par covalence); à liaisons ioniques (chlorure de
sodium: ions Cl- et sodium Na+); à liaisons faibles de Van der Waals
(hydrogène: molécules H2); à liaisons métalliques (cuivre: ions
Cu+). Un cristal est un solide limité naturellement par des faces
planes. La forme géométrique la plus simple qui, par glissement,
permet de reproduire l’ensemble du cristal définit sa maille
élémentaire. On a observé depuis longtemps (Haüy, 1784) que, pour
chaque espèce cristalline, les angles entre les faces limitantes
étaient constants. Si un rayon lumineux est dirigé obliquement vers
une surface non opaque, une partie de la lumière est réfléchie
tandis que l’autre pénètre dans le solide (rayon réfracté). Dans
certains cristaux anisotropes, la lumière est divisée en deux
rayons, qui vibrent perpendiculairement l’un par rapport à l’autre
et se déplacent à des vitesses différentes; ils ont donc des indices
de réfraction différents. La biréfringence de tels cristaux permet
de les identifier. Les rayons X qui traversent un cristal sont
diffractés par les plans réticulaires dus à l’arrangement des
atomes. Chaque espèce minérale possède un diagramme de rayons X
caractéristique. Les minéraux conducteurs de l’électricité sont ceux
qui possèdent des liaisons métalliques. Comme les propriétés
optiques, la conductivité varie selon les directions
cristallographiques. Dans certains minéraux non conducteurs, on peut
induire un champ électrique par changement de température,
pyroélectricité, ou par des pressions dirigées, piézoélectricité. Si
l’on introduit (dopage) des impuretés dans divers cristaux
(silicium, germanium), on obtient des semiconducteurs. L’étude des
cristaux relève de la minéralogie mais aussi de la physique du
solide.
Cristal liquide.
Un cristal liquide correspond à un état particulier de la matière:
l’état mésomorphe (mot d’origine grecque signifiant «de forme
intermédiaire»). En effet, il possède certaines propriétés des
liquides (fluidité, coalescence des gouttes par contact) et des
solides cristallins. L’état mésomorphe peut être obtenu par simple
variation de température d’un composé pris à l’état pur ou par
dissolution du composé dans un solvant, à température constante.
Dans le premier cas, la température doit être intermédiaire entre la
température de fusion du solide et la température de liquéfaction.
L’examen aux rayons X des cristaux liquides montre que l’arrangement
des molécules est intermédiaire entre l’agencement régulier (dans
les trois directions de l’espace) des cristaux et le désordre des
liquides. Le parallélisme des molécules explique l’anisotropie des
cristaux liquides; la fluidité est due à la mobilité, relative, des
centres de masse des molécules. L’association de l’anisotropie (en
particulier, pour les propriétés optiques) et de la fluidité a deux
grandes utilisations: 1. affichage de grandeurs numériques par les
cristaux dits nématiques: la transmission optique du cristal liquide
est modifiée par un champ électrique; 2. mesure des températures
(thermomètres digitaux, thermographie cutanée, etc.).
cryoélectronique adj. et n. f. ELECTRON
Partie de l’électronique qui utilise les supraconducteurs.
cytologie La cytologie se divise en
plusieurs disciplines. La cytochimie étudie la localisation des
divers constituants chimiques de la cellule; la cytogénétique
s’intéresse au matériel génétique (acides nucléiques) de la cellule.
La cytomorphologie, qui utilise le microscope électronique, décrit
les structures cellulaires. La cytophysiologie étudie la physiologie
des organites cellulaires. La cytologie est fondamentale en médecine
pour établir un diagnostic.
Darwin (Charles) (Shrewsbury, Shropshire,
1809 Down, Kent, 1882), naturaliste anglais, le père des
théories modernes sur l’évolution des êtres vivants (De l’origine
des espèces, par voie de sélection naturelle, 1859; la Descendance
de l’homme et la sélection sexuelle, 1871).
datation La datation peut se faire par
diverses méthodes. Les unes permettent d’établir l’ancienneté d’un
objet par rapport à un autre; les autres de déterminer l’âge de
l’objet étudié. Elles sont toutes fondées sur des phénomènes
cycliques: les anneaux concentriques formés annuellement dans le
tissu ligneux d’un arbre lors de sa croissance, la vitesse de dépôt
des sédiments, des dépôts dus à la fonte des anciens glaciers, les
fluctuations de niveau d’une mer ou d’un lac, la stratigraphie, la
typologie, la paléontologie, les pollens fossiles (palynologie),
l’étude du géomagnétisme, la thermoluminescence (pour déterminer la
date de cuisson d’une céramique). On dosera les traces que certains
éléments radioactifs ont laissées lors de leur désintégration. Ainsi
la datation par le carbone 14 est possible parce que le carbone
naturel renferme (en très faible pourcentage) un isotope radioactif
de masse atomique 14 (¹4C) dont la période est d’environ 5700 ans.
Toute matière organique contient donc du ¹4C. La recherche de sa
proportion dans un composé carboné (cendres de bois, par ex.) et la
connaissance de la proportion qu’il contenait au moment où il
faisait partie d’un organisme vivant permettent de fixer la date de
la mort de cet organisme. Une découverte récente, utilisant le
couple uranium-thorium, aurait toutefois permis d’établir que la
datation par le ¹4C n’est plus fiable quand les fossiles dépassent
9000 ans. Des méthodes analogues utilisent l’uranium, le potassium
40 dans la méthode dite du potassium-argon (période d’env. 1,3
milliard d’années) et le rubidium 87 (période de 47 milliards
d’années env.); le couple rubidium-strontium a permis de calculer
l’âge des pierres lunaires rapportées sur Terre (3,2 à 4,6 milliards
d’années).
Deimos, l’un des deux satellites de Mars,
de forme ovoïdale (15 km sur 11 km), gravitant à 20000 km de la
surface de la planète.
désoxyribonucléique L’A.D.N. constitue le
support biochimique de l’hérédité et joue un rôle essentiel dans la
synthèse des protéines spécifiques. Son existence a été découverte à
la fin du XIXe s. grâce aux travaux de Miescher, Altmann et Kossel;
ses fonctions ont été mises en évidence par les expériences de
Beadle et Tatum sur la moisissure du pain, Neurospora crassa (1954).
Un schéma de structure hélicoïdale a été proposé par Crick et Watson
(1953); dans ce schéma, les macromolécules d’A.D.N. affectent la
forme d’un long escalier en spirale pouvant grouper entre 3 et 10
millions de nucléotides. L’A.D.N. est constitué par 4 bases: adénine
et thymine, guanine et cytosine, reliées deux à deux par une liaison
hydrogène labile qui permet le dédoublement des chaînes pendant la
mitose. La quantité d’A.D.N. présente dans chaque noyau est
constante pour une espèce donnée et constitue 70 à 90 % du poids sec
du noyau. V. aussi chromosome, nucléique et code (génétique).
dilatation Les liquides se dilatent plus
que les solides. On appelle coefficient de dilatation linéaire d’un
corps, entre les températures to et t1, l’allongement de ce corps
par unité de longueur et par degré d’élévation de température. Il
est égal à 1,2 . 10-5 pour l’acier, à 3,1 . 10-5 pour le zinc et à
0,9 . 10-5 pour le verre ordinaire, entre 0 et 100 °C. En première
approximation, le coefficient de dilatation volumique (accroissement
du volume par unité de volume) des gaz ne dépend pas de leur nature
spécifique (loi de Gay-Lussac). Pour les gaz parfaits, il est égal à
1/273,15.
dinosaure On divise les dinosaures en deux
ordres: les avipelviens, au bassin comparable à celui des oiseaux,
possédaient un bec corné (ex.: Iguanodon, Triceratops); les
sauripelviens avaient un bassin de type reptilien (ex.: Diplodocus,
Tyrannosaurus). Leur extinction brutale fait l’objet de diverses
interprétations.
eau
Chim. Le volume d’eau contenu dans les océans (1
milliard de km³) constitue 97 % de nos ressources en eau. L’eau
naturelle est un mélange d’eau, d’eau lourde D2O et d’eau mixte DHO
(ces deux dernières en proportions très faibles). Elle se solidifie
à 0 °C et bout à 100 °C sous la pression atmosphérique normale. À
partir de 1200 °C, l’eau se dissocie en hydrogène et en oxygène.
Elle intervient dans de très nombreuses réactions chimiques
(oxydation, réduction, hydrolyse). Elle se fixe sur certains corps
en donnant des hydrates. La purification de l’eau s’effectue dans
des échangeurs d’ions ou en utilisant des produits qui détruisent
les matières organiques et les bactéries (ozone, chlore, eau de
Javel).
Biol. L’eau est un
constituant essentiel des cellules animales et végétales (70 % en
moyenne chez les animaux). Dans un être vivant, on distingue l’eau
libre, qui constitue le moyen de transport de nombreuses substances
(dans le sang, par ex.), l’eau liée (par adsorption, imbibition ou
capillarité) et l’eau de constitution ou intramoléculaire, qui est
intégrée dans des molécules. Cycle de l’eau: sous l’action du
soleil, l’eau des mers, des océans et des lacs s’évapore et retombe
en précipitations. L’eau retombée, pour une part, retourne à son
origine ou dans la nappe phréatique, par ruissellement ou drainage,
pour une autre part, se trouve absorbée par les végétaux et les
êtres animés, et s’évapore.
ébullition Un liquide entre en ébullition
lorsque la pression de sa vapeur saturante est égale à la pression
qu’il supporte. La température à laquelle se produit ce phénomène
(point d’ébullition) reste constante et dépend donc de la pression;
ainsi, à une altitude élevée, le point d’ébullition de l’eau est
inférieur à 100 °C. Dans les conditions normales de pression,
l’hélium a pour température d’ébullition - 268,9 °C; l’air, -190 °C;
l’alcool éthylique, 78,5 °C; l’eau, 100 °C; le mercure, 357 °C; le
platine, 3830 °C.
écliptique L’écliptique est incliné en
moyenne de 23° 27’ sur le plan de l’équateur. L’intersection de ces
deux plans détermine la ligne des équinoxes; la ligne des solstices,
située dans l’écliptique, étant perpendiculaire à celle des
équinoxes.
électricité
Dès
le VIe s. av. J.-C., les Grecs constatèrent que l’ambre frotté
attirait de nombreux corps légers. Au XVIIIe s., on montra qu’on
peut faire apparaître par frottement deux sortes d’électricité,
baptisées positive et négative, et l’on parvint ainsi au concept de
charge électrique: des objets chargés se repoussent ou s’attirent
selon qu’ils portent des charges de même signe ou de signes
contraires. La loi fondamentale de cette interaction, dite
électrostatique, homologue de la gravitation universelle de Newton,
fut établie en 1785 par Coulomb. À partir de 1800, la pile de Volta
permit de réaliser les premiers courants électriques. À la suite de
l’expérience réalisée en 1820 par Œrsted et analysée par Laplace et
Ampère, on découvrit les actions dites électrodynamiques qui
s’exercent entre les courants et on établit que le champ magnétique
créé par un courant est proportionnel à l’intensité de celui-ci,
c.-à-d. à la charge qu’il transporte par unité de temps. L’étude des
courants électriques (électrocinétique) fut complétée en 1826 par
Ohm, qui établit la relation entre l’intensité traversant un
conducteur et la différence de potentiel aux bornes de celui-ci et
définit ainsi la notion de résistance. En 1831, Faraday dégagea le
concept de force électromotrice et établit les lois du phénomène
d’induction électromagnétique, ouvrant ainsi la voie aux
applications techniques de l’électricité (générateurs, dynamos,
transformateurs, etc.) dont l’étude constitue l’électrotechnique. En
1841, Joule établit les lois régissant le dégagement de chaleur dans
un conducteur (effet Joule). En 1864, Maxwell prédit l’existence des
ondes électromagnétiques (mises en évidence expérimentalement en
1885 par Hertz) et montra l’unité profonde de l’électrostatique et
du magnétisme, fondant ainsi l’électromagnétisme. À la fin du XIXe
s., la découverte de l’électron ouvrit la voie aux réalisations
ultérieures de l’électronique. On distingue fondamentalement:
l’électrostatique, qui traite de l’ensemble des phénomènes dus à la
présence de charges électriques immobiles, et l’électrocinétique,
qui traite plus particulièrement des phénomènes que provoque le
déplacement de ces charges. Les interactions entre champ magnétique
et courant électrique sont exclues de l’électrocinétique; leur étude
constitue l’électrodynamique. L’électrocinétique montre qu’un
courant électrique se produit lorsqu’on réunit par un conducteur
deux points qui se trouvent à des potentiels différents. Le passage
de ce courant s’accompagne d’un dégagement de chaleur (effet Joule)
et d’un effet électromagnétique. L’intensité d’un courant est la
quantité d’électricité qui traverse un conducteur pendant un temps
limité. Elle s’exprime en ampères, cette unité étant définie par
l’interaction (produite par effet magnétique) de deux conducteurs
parcourus par un courant. La résistance qu’oppose un conducteur au
passage d’un courant électrique s’exprime en ohms; elle dépend de la
longueur l, de la section S et de la résistivité du conducteur:
R =
× s. La résistivité des métaux purs est très faible (de
l’ordre de
10-8 ohms-mètres). Celle des isolants est, en
revanche, très élevée (105 à 10¹6 ohms-mètres). La différence de
potentiel (d.d.p.) que l’on constate entre deux points d’un
conducteur parcouru par un courant électrique correspond au rapport
de l’énergie abandonnée et de la quantité d’électricité mise en jeu.
Elle s’exprime par la loi d’Ohm: U = R × I (U en volts, R en ohms et
I en ampères). La puissance calorifique dissipée est donnée par la
loi de Joule: P = RI² (P en watts). Dans le cas d’un circuit fermé
comprenant des résistances, des générateurs montés en série, on
utilise la loi de Pouillet généralisée: E - E’ = I × R, E étant la somme des forces
électromotrices (f.é.m.) des générateurs, E’ celle des forces
contre-électromotrices des récepteurs, R celle des résistances
internes des générateurs et des récepteurs, ainsi que des autres
résistances.
Sur
le plan pratique, l’électricité joue un rôle considérable; l’énergie
électrique, facile à transporter et à distribuer, a révolutionné les
moyens de production et la vie de l’homme. Représentant environ le
tiers de l’énergie consommée, elle est produite, dans des centrales
électriques, par transformation d’énergie thermique, hydraulique ou
nucléaire. Cette opération se fait par l’intermédiaire de
générateurs de courant continu ou d’alternateurs. Si l’énergie
thermique est de plus en plus produite par le pétrole, bientôt la
production d’énergie électrique au moyen de piles solaires, de piles
à combustibles, de générateurs magnétohydrodynamiques, à fusion
nucléaire, etc., sera cause de progrès considérable en ce domaine.
L’énergie électrique est transportée quelquefois par des courants
continus, le plus souvent par des courants alternatifs.
L’électricité a rendu possible la mise au point de moteurs
électriques très variés, et les usages industriels de l’électricité
sont extrêmement divers. Ainsi, les phénomènes électrostatiques
permettent le dépoussiérage des fumées d’usine, la peinture
électrostatique, la photocopie, la concentration du faisceau
électronique d’un tube cathodique de téléviseur, etc. L’électricité
est la base des procédés d’électroformage, d’électroérosion,
d’usinage par jet de plasma et par faisceau d’électrons. L’éclairage
sous toutes ses formes est dû à l’électricité. Les transports
constituent un champ d’application immense de l’électricité, qu’il
s’agisse de traction électrique, de signalisation, de communication,
de l’automobile, de l’aviation ou de la marine. Les utilisations
domestiques sont multiples (électroménager).
électrochimie
Lorsqu’on plonge deux
électrodes dans un milieu liquide conducteur et qu’on établit une
différence de potentiel entre elles, on crée dans ce liquide un
champ électrique sous l’influence duquel les ions existant dans ce
milieu tendent à migrer vers les électrodes: les ions négatifs ou
anions vers l’anode; les ions positifs ou cations vers la cathode.
D’autre part, on peut observer, dans le voisinage immédiat des
électrodes, des réactions électrochimiques d’oxydoréduction: la
cathode, source d’électrons, se comporte comme un réducteur;
inversement, l’anode, aride d’électrons se comporte comme un oxydant
à l’égard du milieu conducteur. Les applications de l’électrochimie
sont très importantes, aussi bien en laboratoire (méthodes d’analyse
qualitative et quantitative extrêmement précises) que dans
l’industrie. Dans ce dernier domaine, les deux phénomènes inverses
sont très exploités: 1. la conversion de l’énergie électrique en
énergie chimique, ou électrolyse, reçoit de nombreuses applications;
2. la conversion de l’énergie chimique en énergie électrique se fait
grâce à des convertisseurs, qui sont le siège, ou bien de réactions
chimiques réversibles (accumulateurs, que l’on peut recharger), ou
bien de réactions chimiques irréversibles (piles électriques). On
notera que des phénomènes électrochimiques se produisent
naturellement dans les roches constitutives de la croûte terrestre,
dans les ouvrages humains (facteurs d’érosion) et au sein des êtres
vivants, où ils jouent un rôle déterminant (transmission de l’influx
nerveux, par ex.).
électrolyse
Pour
électrolyser un corps, on le place dans un récipient (voltamètre ou
cuve à électrolyse) dans lequel plongent deux électrodes, fixes ou
mobiles, qui seront reliées aux deux bornes d’un générateur de
courant continu. On appelle anode celle qui est reliée à la borne
positive du générateur et cathode celle qui est reliée à la borne
négative. L’ensemble constitue une cellule d’électrolyse. Dans un
électrolyte, le passage du courant est rendu possible par la
présence d’un nombre plus ou moins grand d’ions, provenant de la
dissociation de molécules: les uns positifs, ou cations (ions
métalliques, ions hydrogène ou ions complexes comme l’ion ammonium);
les autres négatifs, ou anions (association d’atomes ayant capté un
ou plusieurs électrons). L’application d’une différence de potentiel
entre les électrodes de la cuve à électrolyse produit un champ
électrique, et les ions se trouvent soumis à des forces dont le sens
dépend du signe de la charge qu’ils portent. Les ions positifs se
dirigent vers l’électrode négative (cathode), et les ions négatifs,
vers l’électrode positive (anode).
électromagnétisme L’interaction
électromagnétique s’exerce entre toutes les particules possédant une
charge électrique. Tout système de particules chargées est la source
d’un champ électromagnétique qui peut être calculé à l’aide des
équations de Maxwell. Ce champ est caractérisé par deux vecteurs
notés E (champ électrique) et B (champ magnétique). Dans le cas
particulier de charges immobiles, B est nul et les propriétés du
champ E sont celles de l’électrostatique (V. électricité). Toute
charge en mouvement accéléré émet des ondes électromagnétiques. Ce
phénomène est appelé rayonnement électromagnétique (V. encycl.
rayonnement). Les applications de l’électromagnétisme ont joué un
rôle croissant tout au long du XXe s.: communication à distance à
l’aide d’ondes hertziennes (V. radioélectricité), télévision, radar,
maser, laser, appareils à micro-ondes.
électronique La découverte des rayons
cathodiques par Hittorf (1869) puis leur étude par Crookes, Perrin
et Thompson sont à l’origine de l’électronique, car ces rayons sont
constitués d’électrons accélérés grâce à la forte différence de
potentiel qui existe entre la cathode et l’anode des tubes qui les
émettent. Les découvertes se succèdent rapidement à la fin du XIXe
s. et au XXe s.: l’effet thermoélectronique par Edison en 1884,
l’électron par Thompson en 1897, la lampe diode par Fleming en 1904,
la diode à jonction par Shockley en 1948, découverte qui permettra
la construction des transistors, puis des circuits intégrés (1966).
Les électrons utilisés dans les tubes électroniques (diodes,
triodes, etc.) sont extraits des atomes de certains corps
(tungstène, oxydes alcalino-terreux). Selon la forme d’énergie
utilisée pour rompre la liaison qui les unit au noyau atomique, on
distingue divers types d’émissions: thermoélectronique ou
thermoélectrique (énergie apportée sous forme de chaleur);
photoélectrique ou photoélectronique (apport d’énergie par un
rayonnement); par l’effet d’un champ électrique de haute intensité
appliqué à la surface du corps émetteur; secondaire, lorsqu’on
bombarde une surface par des électrons ou par des ions. Du fait de
leur inertie à peu près nulle et de leur charge, ils peuvent être
aisément accélérés et déviés sous l’action de champs magnétiques et
électriques. Tous les composants électroniques subissent une
miniaturisation de plus en plus poussée et les prix de revient des
appareils électroniques sont de plus en plus bas. Les applications
de l’électronique sont innombrables: l’informatique et les
télécommunications, la robotique et l’automatisation, la
bureautique, les calculatrices, les jeux et les jouets, les
appareils dits «grand public» (radio, télévision, haute fidélité,
magnétoscope, électroménager), mais aussi l’automobile, la commande
numérique, l’instrumentation, le domaine médical, etc.
élément
Element Chim. Tous les
corps qui existent à la surface de la Terre sont des combinaisons de
90 éléments naturels. Les chimistes les désignent chacun par un
symbole, première lettre majuscule de leur nom actuel ou ancien,
souvent suivie d’une seconde lettre minuscule pour éviter les
confusions. En 1869, D. Mendeleïev proposa une classification des
éléments par «poids atomiques» croissants, mais en plaçant les uns
au-dessous des autres ceux qui possédaient des propriétés chimiques
identiques. Le tableau périodique actuel dérive de celui de
Mendeleïev, mais classe les éléments (naturels et artificiels) par
numéros atomiques Z croissants; Z est le nombre des protons présents
dans le noyau atomique. Le tableau périodique actuel comprend les 90
éléments naturels et 19 éléments artificiels: le technétium (Z = 43,
créé en 1937), le prométhium (Z = 61, créé en 1945) et les
transuraniens (Z = 93 à 109) dont le nombre n’a cessé de croître
depuis la découverte du neptunium (Z = 93) en 1940. Il comporte
sept périodes, représentées horizontalement et notées de I à VII.
Chaque période correspond au nombre de couches électroniques des
éléments qu’elle contient. La période I est réservée aux éléments
qui comportent une seule couche électronique: l’hydrogène (H) et
l’hélium (He); les périodes II et III sont réservées aux éléments
ayant deux et trois couches électroniques, etc. Les diverses
colonnes (verticales) notent le nombre d’électrons de la couche
périphérique externe, celle dont l’énergie est la plus élevée; le
chiffre romain qui les désigne indique ce nombre. Ainsi, tous les
éléments de A I possèdent un seul électron périphérique; mis à part
l’hydrogène, ce sont les métaux alcalins (lithium Li; sodium Na;
etc.); perdant facilement cet électron, ils sont très réactifs. La
colonne A II contient les métaux alcalino-terreux, qui possèdent
deux électrons périphériques (beryllium Be, manganèse Mn, etc.).
Ensuite, la régularité du tableau est rompue par la zone (A III à B
II) qui contient les métaux de transition; le numéro de chaque
colonne ne représente pas le nombre d’électrons périphériques
(lequel vaut en général deux et parfois un) mais provient de
l’ancienne forme, dite «courte» du tableau périodique. Autres
anomalies, la case du lanthane (La; Z = 57) comprend cet élément et
tous les lanthanides, et celle de l’uranium (U; Z = 92) comprend cet
élément et tous les transuraniens. De B III à B VII, le tableau
retrouve sa régularité: le numéro d’une colonne représente à nouveau
le nombre d’électrons périphériques. À l’extrême droite du tableau,
une colonne notée 0 présente des éléments particulièrement stables,
à cause du remplissage complet des couches électroniques; leur
couche externe comprend huit électrons; ce sont les gaz rares, dits
aussi inertes, car ils ne peuvent connaître d’état excité. B VII
regroupe les halogènes, qui ont sept électrons périphériques; tout
halogène a tendance à gagner un électron afin d’acquérir la
structure électronique du gaz rare qui le suit (dans la colonne 0).
De nombreux éléments de la droite du tableau, dits non-métaux, se
rencontrent dans la nature à l’état de combinaisons gazeuses. Quand
on suit une période de la droite vers la gauche, le caractère
métallique s’accentue. Des éléments (parfois appelés métalloïdes ou
semi-métaux) font la transition entre métaux et non-métaux: arsenic
(As), antimoine (Sb), etc. Une configuration atomique de numéro
atomique Z donné peut présenter des atomes ayant des masses
atomiques différentes: ce sont les isotopes d’un élément considéré;
pour chaque élément nous avons indiqué leur nombre dans la liste des
éléments. Ces isotopes ont des masses différentes car leurs noyaux
ne comportent pas le même nombre de neutrons; ce nombre varie
facilement et, par bombardement du noyau avec des particules
accélérées, on peut produire de nouveaux isotopes artificiels.
énergie L’énergie se
manifeste sous des formes très diverses: énergie calorifique,
électromagnétique, électrique, nucléaire, mécanique, chimique, etc.
L’équivalence des formes d’énergie implique que l’énergie totale
(mise en jeu lors de la transformation d’une énergie en une autre)
reste constante (premier principe de la thermodynamique). Il y a
irréversibilité des échanges d’énergie; ainsi, l’énergie mécanique
peut se transformer entièrement en énergie calorifique. En revanche,
la transformation inverse ne peut être totale, elle est toujours
accompagnée de pertes de chaleur (second principe de la
thermodynamique). Le joule (symbole J) est l’unité d’énergie du
système SI. Elle correspond au travail d’une force de 1 newton dont
le point d’application se déplace de 1 mètre dans sa propre
direction. D’autres unités, hors système SI, sont également
utilisées: le watt-heure (1 Wh = 3600 J), l’électronvolt (1 eV = 1,6
. 10-¹9 J) employé en physique nucléaire, la calorie. Sur la Terre,
le Soleil est la source fondamentale d’énergie, car toutes les
autres sources (charbon, gaz, pétrole, vent, etc.) en découlent.
L’utilisation directe de l’énergie solaire semble donc être l’un des
moyens de remédier à l’épuisement progressif des ressources
actuelles en énergie.
entropie
Tout
système physique a tendance à évoluer vers un état de moindre
organisation: on dit que son entropie augmente. Un gaz comprimé, par
ex., tend spontanément vers un état où sa pression sera plus faible;
l’inverse ne se produit jamais; pour le ramener à son état initial,
il faudra le comprimer, en dépensant un travail. Lorsqu’un système
isolé évolue à température constante entre deux états en échangeant
une faible quantité de chaleur avec le milieu extérieur, sa
variation d’entropie (qui s’exprime en joules par kelvin) est
inversement proportionnelle à sa température absolue. L’entropie
d’un système isolé ne peut qu’augmenter, tandis que l’énergie
utilisable de ce système diminue. Cette dégradation ne peut
s’arrêter que par un apport extérieur. L’entropie de notre Univers,
système isolé, augmente constamment. Les organismes vivants
parviennent, en constituant des systèmes organisés à partir
d’apports alimentaires, à réduire localement et temporairement cette
entropie. La théorie de l’information, due à Shannon et Weaver
(1948), s’attache à la quantité d’informations qu’un signal ou
message porte: réduire l’entropie d’une information (ou d’une série
d’informations), c’est réduire le nombre des possibilités
d’interprétation du message, donc en réduire l’incertitude.
équilibre
Physique. On ne peut
définir l’équilibre d’un système que par rapport à un repère donné.
Dans ce repère, le système est en équilibre si les coordonnées de
chacun de ces points sont constantes. Le repère de la mécanique
classique a pour origine le Soleil et pour axes les trois directions
menées du centre de cet astre à trois étoiles fixes. Dans ce repère,
dit de Copernic, ainsi que dans tous les repères se translatant à
vitesse constante par rapport au précédent, les mouvements de
translation n’existent pas si la somme des forces appliquées au
solide initialement au repos est nulle. Toute rotation est
impossible si la somme des moments des forces par rapport à un point
du corps (V. dynamique) est également nulle. Ces deux équations
vectorielles correspondent à six relations algébriques qui
caractérisent l’équilibre. En fait, il n’y a équilibre qu’à une
échelle macroscopique. L’équilibre absolu n’existe pas. Molécules,
atomes, noyaux et électrons sont animés de mouvements incessants:
mouvements browniens dans les liquides et les gaz, oscillations des
atomes des solides, mouvements orbitaux des électrons autour du
noyau, etc.
espace La conquête de l’espace a débuté
par le lancement et la mise en orbite terrestre de satellites
artificiels (Spoutnik 1 le 4 octobre 1957) puis par l’envoi d’hommes
dans des satellites capables de revenir sur terre (Youri Gagarine
dans Vostok 1 le 12 avril 1961, John Glenn dans la capsule Mercury
le 20 février 1962). La conquête de la Lune a commencé en 1968 par
l’envoi de l’engin soviétique Zond 5, qui réalisa la première boucle
Terre-Lune-Terre, et s’est poursuivie par le programme américain
Apollo (le 21 juillet 1969, Neil Armstrong, suivi d’Edwin Aldrin,
posait le pied sur la Lune). Les programmes Saliout (soviétique) et
Skylab (américain) permirent à partir de 1971 et de 1973 de mettre
au point les techniques de travail dans l’espace et d’accouplement
de vaisseaux spatiaux. La conquête de l’espace s’orienta alors dans
deux directions: la poursuite de l’exploration du système solaire
par des sondes de plus en plus perfectionnées (programme Voyager
vers les planètes extérieures à partir de 1977, Magellan vers Vénus
en 1990-1993, Ulysse en dehors du plan de l’écliptique à partir de
1990), capables de pratiquer des analyses in situ (missions Viking
sur Mars en 1975-1976, Venera sur Vénus à partir de 1970, Giotto
vers la comète de Halley en 1986); l’exploitation de l’espace à des
fins scientifiques (astronomie, expériences en impesanteur) et
pratiques (télécommunications, météorologie, télédétection et
inventaire des ressources terrestres). Si la conquête de l’espace
s’appuie toujours sur les lanceurs traditionnels (fusée Ariane,
notam.), depuis 1981 on utilise aussi des engins d’une nouvelle
génération, les navettes spatiales. La fin de la course à l’espace
qui suivit l’éclatement de l’U.R.S.S. en 1991 se traduit auj. par un
ralentissement, et parfois une remise en question de certains grands
programmes spatiaux (station spatiale américaine, exploration
planétaire russe, navette européenne). V. aussi satellite.
ethnologie
Chez Hérodote l’on trouve pour la première fois une étude
comparée des sociétés humaines. Avec les philosophes du XVIIIe s.,
l’ethnologie passe de l’exotisme à l’humanisme: l’homme appartient à
une société particulière dont les institutions se prêtent à des
études comparatives; d’autre part, l’humanité évolue de la
«sauvagerie» vers la civilisation. Au début du XIXe s., l’ethnologie
analyse les caractères distinctifs des divers types humains et la
formation des ensembles raciaux, tandis que l’ethnographie
consistait à classer des groupes humains à partir de leur langue.
Les nombreux ethnologues du XIXe s. peuvent être classés en
plusieurs écoles. L’évolutionnisme, influencé par le lamarckisme et
le darwinisme, affirme que l’humanité porte en elle des dispositions
immanentes qui se développent à mesure que la société progresse.
L’anthropologue américain Lewis H. Morgan, dans Ancient Society
(1877), définit trois grandes périodes: sauvagerie, barbarie,
civilisation. L’Écossais Frazer se rattache à cette école. À
l’inverse, le diffusionnisme professe qu’une innovation naît dans un
des rares centres culturels et se répand par diffusion. L’Américain
Boas a utilisé, sans outrance, cette notion. Pour le
fonctionnalisme, fondé par le Britannique Malinowski (les Argonautes
du Pacifique occidental, 1922), tout fait social doit être étudié
dans ses relations avec tous les autres. À sa suite, les acquis de
la linguistique, de la psychanalyse, de la sociologie, de la
géographie, etc., ont contribué à faire de l’ethnologie une science
humaine d’autant plus précieuse qu’elle a réduit à néant des
préjugés tels que le racisme, mais cela alors que les sociétés dites
traditionnelles (naguère, primitives) tendent à rejoindre, dans des
conditions catastrophiques, le monde historique. «Ayant le même
objet, qui est la vie sociale, le même but, qui est une meilleure
intelligence de l’homme, et une méthode où varie seulement le dosage
des procédés de recherche, l’histoire et l’ethnologie se distinguent
surtout par le choix de perspectives complémentaires: l’histoire
organisant ses données par rapport aux expressions conscientes,
l’ethnologie par rapport aux conditions inconscientes de la vie
sociale» (Cl. Lévi-Strauss).
exobiologie ASTRO Branche de l’astronomie
qui étudie la possibilité d’une vie hors de la planète Terre.
fission PHYS NUCL Division d’un noyau
atomique lourd en noyaux plus légers
Le processus de fission a été découvert en 1938
par Hahn et Strassmann. Un noyau lourd est divisé en noyaux plus
légers sous l’influence d’un bombardement corpusculaire (neutrons
lents, par ex.). La masse des noyaux obtenus étant inférieure à
celle du noyau initial, la fission s’accompagne d’une libération
énorme d’énergie, due à cet écart de masse. Cette libération
d’énergie (chaleur et rayonnement) est brutale dans le cas des
explosions nucléaires, contrôlée et progressive dans les centrales
nucléaires.
fusion Réunion de plusieurs atomes légers
en un atome lourd d’une masse inférieure à la masse totale des
atomes de départ. Le défaut de masse résultant de la fusion libère
une très grande quantité d’énergie.
La fusion nucléaire part de noyaux légers
(deutérium, tritium et lithium) pour aboutir à des noyaux plus
lourds (hélium). L’énergie de fusion caractérise les étoiles (V.
encycl. étoile). La fusion nucléaire a été obtenue artificiellement
en octobre 1952 aux États-Unis (explosion de la première bombe à
hydrogène). La fusion contrôlée est beaucoup plus difficile à
obtenir; un certain nombre de conditions sont indispensables:
température très élevée (plusieurs centaines de millions de
kelvins), densité du plasma (mélange d’atomes et d’électrons)
suffisante et temps de confinement du plasma (durée des premières
réactions) assez long. Aucune substance ne résistant à de telles
températures, le plasma doit être confiné au moyen d’un champ
magnétique («bouteille magnétique»). Les machines utilisées pour ce
confinement (machines à miroirs, tokamaks) permettent d’atteindre
des températures de 20 millions de kelvins pendant un dixième de
seconde. (La fusion peut s’entretenir d’elle-même à partir de 100
millions de kelvins, pour une densité de 10¹5 noyaux par cm³.)
L’utilisation de faisceaux laser permet d’augmenter la densité du
plasma, donc de réduire la durée nécessaire pour le confinement. V.
fission et noyau.
Huygens ou, parfois et à tort, Huyghens
(Christiaan) (La Haye, 1629 id., 1695), physicien, géomètre et
astronome néerlandais; l’un des plus grands savants de tous les
temps (il travailla en France de 1665 à 1680). Il donna extension et
cohésion au calcul des probabilités, inventa le balancier régulateur
à ressort spiral, mit au point une lunette astronomique (étude de
Saturne, Mars, etc.), attribua à la lumière le caractère d’un
phénomène ondulatoire (Traité de la lumière, 1678).
Lamarck (Jean-Baptiste Pierre de Monet,
chevalier de) (Bazentin, Picardie, 1744 Paris, 1829),
naturaliste français; professeur de zoologie des invertébrés au
Muséum en 1793: la Flore française (1778), Philosophie zoologique
(1809), Histoire naturelle des animaux sans vertèbres (1815-1822).
Théorie constituée par l’ensemble des idées de Lamarck sur
l’évolution des êtres vivants, le lamarckisme est à la base du
transformisme, mais il s’oppose au darwinisme, car il considère que
les divers caractères qu’une espèce acquiert au cours d’une
génération, par suite des influences du milieu de vie, sont transmis
à la génération suivante.
mercure
Le
mercure est le seul métal liquide à la température ordinaire. Sa
grande densité explique son utilisation dans de nombreux appareils
de physique, en particulier le baromètre à colonne de mercure. Le
mercure est un bon conducteur de l’électricité (il entre dans la
fabrication de contacteurs). Il forme des alliages liquides, appelés
amalgames, avec la plupart des métaux. Il sert en éclairage (lampes
à vapeurs de mercure, tubes fluorescents). Les sels de mercure sont
toxiques. La pollution des aliments par les sels de mercure provoque
de graves intoxications (troubles neurologiques, malformations
fœtales) pouvant entraîner la mort (contamination des céréales par
les pesticides et des poissons par les sels de mercure rejetés en
mer).
organométallique
Selon la nature du métal, la
liaison carbone-métal peut être covalente (métaux de transition) ou
ionique (alcalins et alcalino-terreux). Lorsque la liaison est
plutôt covalente, les dérivés obtenus sont volatils et solubles dans
les solvants organiques. Au contraire, les dérivés ioniques sont des
solides de type salin; les dérivés alcalins sont des initiateurs de
polymérisation, par ex. du styrène. Les organométalliques sont
presque tous des intermédiaires de synthèse, qui permettent de
préparer un grand nombre de composés. Certains complexes
organométalliques jouent un rôle considérable dans les processus
vitaux: hémoglobine, chlorophylle, cytochromes.
Puiseux (Pierre) (Paris, 1855
Frontenay, 1928), astronome français, fils de Victor Puiseux; il
participa à l’élaboration de cartes photographiques du ciel et de la
Lune.
Puiseux (Victor) (Argenteuil, 1820
Frontenay, Jura, 1883), astronome et mathématicien français; il
étudia les fonctions à variable complexe.
pulsar ASTRO Étoile à neutrons fortement
magnétisée et en rotation rapide, dont l’émission se caractérise par
une série d’impulsions régulièrement espacées dans le temps.
Pulsar milliseconde: pulsar ultra-rapide.
quasar ASTRO Astre extragalactique parmi
les plus lumineux de l’Univers.
Découverts au début des années 1960 en raison de
leurs émissions d’ondes radioélectriques, les quasars sont des
objets célestes tellement lumineux qu’il est possible de les
observer très loin dans l’espace, donc très loin dans le temps. Les
plus éloignés observés (plus de 12 milliards d’années de lumière)
sont les témoins d’un passé très reculé de l’Univers. La seule
source d’énergie propre à expliquer leurs extraordinaires propriétés
(un quasar rayonne de 100 à 1000 fois plus d’énergie qu’une galaxie
dans un volume de 10 à 20 fois plus petit) est l’énergie
gravitationnelle d’un trou noir dont la masse serait de l’ordre d’un
milliard de masses solaires.
quantum
Phys. Les transferts d’énergie entre matière et
rayonnement ne s’effectuent pas de façon continue mais mettent en
jeu des quantités finies d’énergie, ou grains d’énergie, appelés
quanta. L’énergie E d’un quantum est égale au produit de la
fréquence v du rayonnement qui le transporte par la constante de
Planck h.
E = hv = ?, si c est la vitesse de la lumière
et la longueur d’onde
du
rayonnement. Dans cette formule, E s’exprime en
joules, h en joules-seconde, v en hertz, c en mètres par
seconde, en mètres; la
constante de Planck h est égale à 6,626 176.10-³4 joules-seconde. La
théorie des quanta fut établie en 1900 par Planck. Elle a permis
d’expliquer l’effet photoélectrique: lorsqu’un photon (alors nommé
«quantum de lumière») frappe l’atome d’un métal, il chasse un
électron si son quantum d’énergie, et donc sa fréquence, est
supérieur à une certaine valeur. La théorie des quanta a conduit
Bohr à proposer un modèle de l’atome dans lequel les électrons
périphériques occupent des niveaux d’énergie correspondant à des
valeurs déterminées; lorsqu’un électron passe d’une orbite à une
autre, c.-à-d. d’un niveau d’énergie à un autre, il émet un
rayonnement. À la suite de Louis de Broglie, qui effectua la
synthèse entre la théorie corpusculaire et la théorie vibratoire de
la lumière (mécanique ondulatoire), Heisenberg jeta les bases de la
mécanique quantique, qui bouleversa la représentation du monde
microscopique en rejetant l’image de particules se déplaçant sur des
trajectoires bien déterminées. La mécanique quantique fut ensuite
développée par Schrödinger et rendue compatible avec la théorie de
la relativité par Dirac. Elle a expliqué la nature de la liaison
chimique, rendu compte de nombreuses propriétés des solides et
permis l’essor de la physique nucléaire.
Schrieffer (John Robert) (Oak Park,
Illinois, 1931), physicien américain; connu pour ses travaux sur la
supraconductivité. P. Nobel de physique 1972 avec J. Bardeen et L.
N. Cooper.
Schrödinger (Erwin) (Vienne, 1887
id., 1961), physicien autrichien; célèbre pour ses travaux de
physique nucléaire et de mécanique ondulatoire. P. Nobel de physique
1933 avec P. Dirac.
spectre
Phys. Lorsqu’un pinceau de lumière blanche traverse un
prisme, il se décompose en rayons de diverses couleurs (V. couleur,
encycl.) et donc de fréquences différentes, dont on peut observer
sur un écran le spectre continu, constitué d’une succession de
plages lumineuses. Certains spectres sont constitués d’un fond
continu sur lequel se superposent un certain nombre de raies de
couleur claire (raies d’émission) ou sombre (raies d’absorption),
caractéristiques des rayonnements étudiés. Ces raies sont dues à
l’émission ou à l’absorption de rayonnement par un électron,
lorsqu’il abandonne une trajectoire pour une autre. Lorsque
l’électron se rapproche du noyau atomique, son énergie décroît en se
transformant en un photon dont la fréquence est proportionnelle à la
diminution d’énergie. Inversement, en absorbant l’énergie d’un
photon, un électron peut s’éloigner du noyau. Les appareils de
spectroscopie comprennent un dispositif qui dirige les rayons à
étudier sur un appareil dispersif qui produit le spectre. Cet
ensemble est accompagné d’un appareil d’observation (spectroscope)
ou d’enregistrement (spectrographe). Les spectroscopes permettent de
mesurer avec précision la longueur d’onde des rayonnements, de
déceler des éléments contenus à l’état de traces dans une substance
(analyse spectrale), d’étudier la structure des cristaux et des
métaux (cristallographie). Grâce à l’étude des spectres des
rayonnements émis par les astres, on a pu déterminer leur
composition chimique, leur température, leur vitesse par rapport à
la Terre, etc. Lorsqu’un astre s’éloigne de la Terre, la fréquence
de son rayonnement diminue par effet Doppler-Fizeau et son spectre
est décalé vers le rouge; inversement, si l’astre se rapproche de la
Terre, son spectre se décale vers le violet (le rouge correspond à
une fréquence inférieure de moitié à celle du violet).
Sperry (Roger Wolcott) (Hartford, 1913
Pasadena, 1994), neurophysiologiste américain. Ses travaux ont
porté, notam., sur l’asymétrie fonctionnelle des hémisphères
cérébraux (dominance de l’hémisphère gauche, chez les droitiers,
pour ce qui concerne le langage). P. Nobel de médecine 1981 avec D.
H. Hubel et T. N. Wiesel.
Spitzer (Lyman) (Toledo, Ohio, 1914
Princeton, New Jersey, 1997), astrophysicien américain.
Considéré comme l’un des pionniers de la physique des
plasmas, il est
l’auteur d’importants travaux sur les amas d’étoiles et le milieu
interstellaire. Il a ruiné les théories «catastrophistes» relatives
à la formation du système solaire en démontrant qu’un filament de
matière arraché au Soleil est trop instable pour donner naissance à
des planètes. En 1951, il constribue ainsi au lancement du Projet
Matterhorn, dont l’objet est la maîtrise des réactions de fusion,
notamment celles qui permettent au soleil de brûler son hydrogène.
Il a également été à l’origine de la construction du grand télescope
spatial Hubble.
stade
Psychanalyse. Freud
appelle stade une étape de la sexualité de l’enfant caractérisée par
le primat d’une certaine partie du corps dont l’excitation est cause
de plaisir (zone érogène). Le premier stade est le stade oral. La
zone érogène est la bouche et les lèvres (première année de la vie).
Lié d’abord à la tétée, le plaisir s’émancipe rapidement et se donne
même des substituts comme la succion du pouce. Le premier drame que
connaît l’enfant est le sevrage. Vient ensuite le stade sadique-anal
(deuxième et troisième années). La zone érogène est l’anus: le
plaisir est provoqué par la rétention des matières fécales et
l’excitation des muqueuses anales. C’est aussi le moment où l’enfant
découvre les premières interdictions sociales. Il peut manifester
son agressivité en face de la réprobation de l’adulte (sadisme) ou
la retourner contre soi (masochisme). Le stade phallique correspond
en gros à la quatrième et à la cinquième années. La zone érogène est
la zone génitale (pénis ou clitoris), le plaisir est obtenu par la
masturbation. Ce stade est lié à la découverte, traumatisante pour
l’enfant, de la différenciation des sexes. Le garçon ressent
l’angoisse de la castration; la fille vit comme un manque l’absence
chez elle de pénis. La fin du stade phallique coïncide théoriquement
avec la liquidation du complexe d’Œdipe. Vient ensuite une période
de latence (de six ans à la puberté) caractérisée par une diminution
des pulsions sexuelles, l’amnésie infantile, le détournement de
l’énergie vers des buts non sexuels (sentiments sociaux) et
l’établissement des barrières morales. Avec la puberté apparaît le
stade génital. On assiste à un retour en force des pulsions
sexuelles, à une reviviscence du complexe d’Œdipe, à l’organisation
de toutes les pulsions partielles sous le primat des zones génitales
bien définies, au choix de l’objet sexuel, à une série de mesures de
défense prises par le moi pour se protéger contre la force des
pulsions (idéalisme adolescent). V. moi et pulsion.
statique
La
statique repose sur le principe de l’action et de la réaction (les
actions mutuelles qui s’exercent entre deux points matériels sont
égales et opposées), et sur le fait que l’ensemble des forces qui
s’exercent sur un système matériel constitue un espace vectoriel.
Dans le cas d’un point matériel, l’ensemble de ces forces peut être
remplacé par un vecteur unique, appelé résultante. Le point est en
équilibre si cette résultante est nulle. La statique des solides
fait intervenir le torseur constitué par la résultante des forces
extérieures (forces exercées par les éléments étrangers au système,
y compris les forces de liaison) et par le moment de ces forces par
rapport à un point donné. Le solide est en équilibre si ce torseur
est nul. La statique des fluides étudie l’équilibre des fluides au
repos; elle comprend l’hydrostatique (statique des fluides
incompressibles, c’est-à-dire les liquides) et l’aérostatique
(statique des fluides compressibles, c’est-à-dire les gaz). Le
principe d’Archimède, le principe de Pascal (pression exercée par une
colonne de liquide), les siphons, l’état de la surface des liquides
au repos sont des applications de la statique des fluides.
statistique
La
statistique repose sur l’étude de populations, constituées par un
ensemble d’individus, ou unités statistiques (habitants d’un pays,
pièces d’un lot, passages de voitures à un endroit déterminé, etc.).
Lorsque la population statistique à étudier est trop nombreuse, on
prélève sur celle-ci un lot, ou échantillon, sur lequel portent les
observations. On définit les caractères de la population à étudier,
caractères qualitatifs (marque d’une automobile, par ex.) ou
quantitatifs (taille d’un individu, par ex.). Les caractères
quantitatifs, appelés aussi variables statistiques, peuvent être
classés en variables discrètes (nombre de pièces d’un logement, par
ex.) ou, à l’inverse, continues (âge d’une personne, par ex.). Les
observations statistiques sont analysées soit au moyen de
distributions, donnant les effectifs ou les fréquences pour chacune
des classes qui constituent la population, soit au moyen de
fonctions de répartition, correspondant au cumul des effectifs ou
des fréquences. Une distribution peut être caractérisée par un
certain nombre de valeurs (le mode, la médiane et la moyenne), qui
permettent de comparer plusieurs distributions, et par sa
dispersion, que l’on caractérise généralement par la variance ou par
la racine carrée de cette variance, appelée écart-type. Lorsqu’une
série statistique possède plusieurs caractères, une étude de
corrélation cherche à déterminer si certains de ces caractères sont
liés les uns aux autres. Dans le cas où le nombre des caractères est
très élevé, on utilise d’autres méthodes, par ex. l’analyse en
composantes principales, qui consiste à réduire le nombre de
caractères, ou l’analyse factorielle. Les statistiques présentent
aujourd’hui un intérêt considérable, compte tenu du grand nombre des
données (présentant toujours un caractère aléatoire) qu’il est
nécessaire de traiter (à l’aide de l’ordinateur, dans la
quasi-totalité des cas) en économie, en sociologie, en démographie,
en gestion, dans l’industrie (contrôle de fabrication), en physique
des particules, en météorologie, dans la recherche biologique, en
astrophysique, dans la science de l’espace, etc. V. aussi
probabilité.
stéréochimie
Les
répartitions spatiales des atomes dans les molécules, proposées
d’abord à titre de modèles hypothétiques par la stéréochimie, ont
progressivement été confirmées par les méthodes modernes
d’investigation (radiographie, notamment). Ainsi, la représentation
spatiale du benzène a posé longtemps un problème aux chimistes;
aujourd’hui, on sait que sur les quatre électrons de chaque carbone,
trois sont utilisés par des liaisons covalentes, appelées liaisons
sigma, et que la probabilité de présence du quatrième est
représentée par un «nuage», appelé orbitale, symétriquement disposé
de chaque côté de la molécule. De même, la forme spatiale du
cyclohexane peut affecter celle d’une chaise (deux atomes de carbone
se trouvant de part et d’autre du plan formé par les quatre autres,
ce qui constitue la forme la plus stable) ou celle d’un bateau (les
deux atomes de carbone se trouvant du même côté du plan des quatre
autres). La stéréochimie permet d’expliquer qu’une molécule peut
exister sous deux formes optiquement inverses l’une de l’autre:
lévogyre et dextrogyre (V. polarisation).
stéréoscopie
La
stéréoscopie repose sur la fusion de deux images prises par un
appareil photographique dont les deux objectifs sont séparés par un
écart égal à la distance entre les deux yeux d’un être humain.
L’observation de ces images donne la sensation du relief, comme lors
de la vision binoculaire. La stéréoscopie possède diverses
applications: les jumelles stéréoscopiques augmentent la sensation
du relief; les télémètres stéréoscopiques permettent, en
particulier, de déterminer la distance d’un objectif (à la suite
d’un calcul trigonométrique).
Stern (Otto) (Sorau, auj. Zary, en
Pologne, 1888 Berkeley, 1969), physicien américain d’origine
allemande; connu pour ses nombr. travaux de physique atomique. P.
Nobel de physique 1943.
Stoney (George Johnstone) (Oakley Park,
King’s County, auj. comté d’Offaly, 1826 Londres, 1911),
physicien irlandais. En 1891, il supposa l’existence de
particules porteuses d’une charge négative et les nomma
électrons.
stratigraphie
Les
roches sédimentaires sont disposées en couches superposées, ou
strates (V. sédiment). La stratigraphie au sens strict étudie la
succession des couches dans le temps. L’étude de la répartition des
couches dans l’espace, qui permet de reconstituer la géographie des
périodes anciennes, constitue la paléogéographie. Bien que
restreintes aux terrains sédimentaires, la stratigraphie et la
paléogéographie permettent de situer dans le temps et dans l’espace
les autres événements géologiques: plissements, phases orogéniques,
éruptions volcaniques, intrusions granitiques, apparition de
nouvelles espèces fossiles, évolution du monde vivant.
Struve (Otto) (Kharkov, 1897
Berkeley, 1963), astronome russe établi aux États-Unis en 1921, puis
naturalisé américain; petit-fils d’Otto von Struve. Il est connu
pour ses travaux de spectroscopie stellaire.
Struve (Otto von) (Dorpat, aujourd’hui
Tartou, Estonie, 1819 Karlsruhe, 1905), astronome russe, fils
de Wilhelm von Struve. Il identifia de nombreuses étoiles
doubles
Sturm (Charles) (Genève, 1803 Paris,
1855), mathématicien et physicien français d’origine suisse. ¶ MATH
Le théorème de Sturm fournit le nombre de racines réelles d’une
équation numérique comprises entre deux nombres donnés. ¶ OPT
Focales de Sturm: segments de droite sur lesquels aboutissent les
rayons lumineux qui sortent d’un système optique.
sublimation
Psychanalyse. Alors que
le refoulement exige du sujet une dépense continuelle d’énergie
psychique, puisqu’il ne cesse jamais, la sublimation permet au sujet
d’atténuer la tension qui résulte de ses conflits intérieurs, de
satisfaire indirectement ses désirs inconscients et surtout d’éviter
d’être en désaccord avec son surmoi. Elle constitue donc un
mécanisme de défense particulièrement efficace puisqu’il permet de
retrouver l’équilibre perdu et de rester en accord avec le milieu
social. On considère, depuis Freud, que la notion de sublimation
qu’il avait définie surtout à propos de la libido peut s’appliquer à
d’autres instincts que la sexualité et notamment aux pulsions
agressives qui se subliment en devenant compétition au niveau le
plus élevé: professionnel, sportif, culturel.
supernova
Astronomie. L’explosion
des supernovæ dégage une énergie plusieurs milliers de fois
supérieure à celle que rayonne le Soleil. Après l’explosion,
l’étoile se transforme en naine blanche ou en étoile à neutrons. La
nébuleuse du Crabe constitue le reste de l’explosion d’une
supernova, observée en Extrême-Orient vers l’an 1054. Les restes
d’explosion d’une supernova constituent des sources de rayonnement
électromagnétique et se regroupent en structures filamenteuses.
supraconductivité Découverte en 1911, la
supraconductivité n’a longtemps pu être observée qu’à des
températures extrêmement basses (une dizaine de kelvins) obtenues
par l’emploi de l’hélium liquide. À de telles températures,
l’arrangement des électrons libres entre les atomes se modifie dans
un grand nombre de métaux et d’alliages métalliques. La température
de transition, au-dessous de laquelle ces métaux deviennent
supraconducteurs, varie entre 0,14 K pour l’iridium et 11,2 K pour
le technétium; rappelons que le zéro absolu (0 kelvin) correspond à
- 273,15 °C. La température de transition de certains alliages
(niobium-germanium-aluminium) peut atteindre 21 K, température très
légèrement supérieure à celle de l’hydrogène liquide (20,45 k). Les
corps supraconducteurs ne présentent plus de résistance électrique
et donc ne s’échauffent plus lorsqu’ils sont traversés par un
courant électrique à une température inférieure à celle de la
température de transition. Cette propriété est utilisée pour
produire des champs magnétiques très intenses et pour fabriquer des
appareils de mesure sensibles aux champs magnétiques très faibles,
des éléments de sustentation magnétique, des câbles servant au
transport de puissances très élevées, etc. Depuis 1987, on sait
préparer des matériaux supraconducteurs à des températures de
l’ordre d’une centaine de kelvins, ce qui autorise l’emploi de
l’azote liquide, beaucoup moins onéreux. Le transport d’énergie sans
pertes, ainsi envisageable, est susceptible de nombreuses
applications industrielles.
surgénérateur Les surgénérateurs sont des
réacteurs à neutrons rapides qui utilisent comme combustible de
l’uranium 235 enrichi ou du plutonium 239. En plaçant autour du cœur
du réacteur une matière fertile constituée d’uranium 238 ou de
thorium 232, ces isotopes non fissiles se transforment, par capture
d’un neutron, en plutonium 239 et en uranium 233, isotopes fissiles.
Si les réactions qui permettent la production de matière fissile, en
réalisant la capture de neutrons par la matière fertile, sont plus
nombreuses que les réactions de fission, le réacteur produit plus de
matière fissile qu’il n’en consomme. On réserve généralement le nom
de surgénérateurs aux réacteurs qui produisent la même matière
fissile que celle qui est consommée; ceux qui produisent une matière
fissile différente sont nommés surconvertisseurs.
surmoi
Le
surmoi est l’intériorisation des interdits sociaux qui frappent les
pulsions naturelles (V. 2. ça). Les circonstances de sa formation
(pendant la petite enfance), sa plus ou moins grande sévérité seront
déterminantes pour toute la vie ultérieure de l’individu. Le surmoi
exerce sa juridiction à deux niveaux. 1. Quand ses conflits avec le
moi relèvent de la conscience morale, ceux-ci ne compromettent pas
l’équilibre affectif. 2. Quand ils se produisent dans l’inconscient,
des troubles psychiques peuvent apparaître. Le surmoi n’est pas
uniquement répressif: il propose constamment au moi des idéaux, des
modèles culturels et moraux. Il devient alors le moi idéal ou idéal
du moi.
tectonique
Le
développement de la tectonique n’a été possible qu’après celui de la
pétrographie et de la stratigraphie. Les déformations de l’écorce
terrestre sont dues à l’existence de fortes pressions à l’intérieur
du globe. La matière qui subit ces tensions se déforme
progressivement. Au-delà d’un certain seuil de cisaillement, propre
à chaque roche, il se produit une rupture de la matière. Les
déformations sont regroupées en deux familles: les déformations
continues forment les plis tels que synclinaux et anticlinaux; les
déformations discontinues, les failles, mais aussi les
charriages.
télécommunication De très nombreuses
techniques ont donné leur essor aux télécommunications modernes:
télégraphie, téléphone, télévision, etc. Dans le domaine du
téléphone, les transmissions peuvent se faire à l’aide de nouveaux
procédés (satellites, guides d’ondes, fibres optiques; des moyens de
codage (modulation d’impulsions) utilisent les lignes installées
pour véhiculer une trentaine de conversations, ou des liaisons
nouvelles à très large bande passante, correspondant à plusieurs
milliers de voies. V. multiplex. Comme le réseau téléphonique, le
réseau télex (qui a remplacé l’ancien système télégraphique) est
équipé d’autocommutateurs spéciaux qui permettent d’établir
automatiquement des liaisons entre les abonnés dont chacun possède
un téléimprimeur, utilisé pour l’envoi et pour la réception des
messages. Quant à elle, la télécopie dite aussi fax (abrév. de
téléfax), utilise directement le réseau téléphonique. Les liaisons
par ondes radioélectriques (V. radioélectricité), qui permettent de
s’affranchir de la sujétion des câbles, s’effectuent par ondes
courtes (radiotéléphonie, par ex.) ou par ondes ultracourtes
(faisceaux hertziens). La radiodiffusion et la télévision font appel
exclusivement aux ondes radioélectriques et doivent opérer une
couverture maximale des territoires, ce qui nécessite la création
d’un réseau complexe d’émetteurs et de relais destinés à assurer une
réception de qualité en tout endroit. Un faisceau hertzien est
constitué d’un ensemble de relais séparés les uns des autres par une
distance de 50 à 80 km. Les capacités de transmission des faisceaux
hertziens peuvent atteindre plusieurs milliers de voies
téléphoniques. Les satellites de télécommunications servent de
relais hertziens. On utilise généralement des satellites
géostationnaires; trois satellites suffisent pour que deux points de
la surface terrestre situés aux antipodes l’un de l’autre puissent
être mis en communication. Parmi les autres moyens de transport des
informations, citons les guides d’ondes, cylindres à l’intérieur
desquels les ondes ultracourtes se propagent par réflexions
successives, les fibres optiques, qui permettent de transporter des
signaux lumineux avec une capacité de transmission très supérieure à
celle des câbles ou des faisceaux hertziens. Ces signaux lumineux,
émis par des lasers, sont en fait des ondes radioélectriques cent
mille fois plus courtes que les ondes ultracourtes. Les
télécommunications sont également utilisées pour relier les
ordinateurs, diffuser et transporter à longue distance les signaux
d’informatique: on parle alors de téléinformatique et de
télématique.
télémètre Les télémètres optiques sont
constitués par un tube qui porte deux miroirs à ses extrémités. Les
images du point visé sont reprises par un oculaire situé au milieu
du tube, la distance à mesurer étant déterminée par la position des
images finales ou par leur mise en coïncidence. Le télémètre à laser
comporte un laser à impulsions dont le faisceau se réfléchit sur un
miroir porté par la cible. Les radars sont des télémètres
radioélectriques.
©
Hachette Livre, 1998
télescope
Physique. L’objectif
d’un télescope est un miroir concave, généralement parabolique, qui
donne une image réelle parfaite d’un point situé à l’infini sur
l’axe du miroir et que l’on peut observer avec une loupe servant
d’oculaire. Les miroirs des télescopes sont, à l’inverse des
lentilles des lunettes, parfaitement achromatiques et ils ont des
dimensions bien supérieures, par ex. 6 mètres de diamètre. Les
radiotélescopes servent à détecter les ondes radioélectriques émises
par les astres; totalement différents des télescopes optiques, ils
sont constitués d’une antenne de grande dimension et d’un
appareillage qui effectue l’analyse des signaux reçus. Les
télescopes électroniques, dont la puissance est nettement supérieure
à celle des télescopes optiques, comprennent un amplificateur
électronique d’images associé à un télescope optique. Terrestres,
tous ces télescopes captent des signaux que perturbe l’atmosphère
terrestre, dont sont libérés les télescopes spatiaux. Mis en orbite
en 1990, le plus grand télescope spatial, nommé Hubble, a été
débarrassé en 1993 d’un défaut qui affectait son optique.
temps
Phys. Le temps n’est pas, à proprement parler, une
grandeur physique. Il constitue plutôt, au même titre que l’espace,
une grandeur par rapport à laquelle le monde évolue. Comme il est
impossible de réaliser un étalon de temps, la mesure du temps doit
être rattachée à un phénomène simple qui se reproduit
périodiquement. L’unité de temps du système SI est la seconde, qui
est définie à partir des vibrations de l’atome de césium. (V.
seconde.) Elle doit être distinguée de l’échelle de temps, qui
permet d’assigner des dates à des événements. Un intervalle de temps
est limité par deux dates dans l’échelle de temps. En physique, à la
notion de temps absolu doit être substituée celle de temps relatif.
Deux événements qu’un observateur juge simultanés ne le seront pas
pour un autre observateur en mouvement par rapport au premier s’ils
se produisent en des points distincts de l’espace. V.
relativité.
Astro. L’échelle de temps universel (abrév.: UT) se
déduit de la rotation de la Terre autour de son axe et de son
mouvement autour du Soleil. Le temps solaire vrai est égal à l’angle
horaire du Soleil: il est 0 h vraie lorsque le Soleil traverse le
méridien. Le temps solaire moyen est calculé en supposant un Soleil
fictif dont l’angle horaire varie uniformément, ce qui n’est pas le
cas du Soleil réel, compte tenu de l’obliquité de l’écliptique en
partic. Au temps solaire moyen on substitue le temps civil, par
addition de 12 heures. Le jour civil commence donc à minuit. Le
temps universel est par définition égal au temps civil de Greenwich.
Les temps légaux dérivent du temps universel suivant le système des
fuseaux horaires. En principe, chaque pays adopte l’heure du fuseau
qui contient sa capitale (sauf pour les pays très étendus). Cette
règle souffre des exceptions, en partic. pour la France, qui vit sur
UT + 1 heure en hiver et UT + 2 heures en été, bien qu’elle se
trouve dans le fuseau 0, c.-à-d. celui de Greenwich. Il existe un
deuxième temps astronomique, le temps des éphémérides, dont
l’échelle se déduit du mouvement de la Terre autour du Soleil. Sa
période fondamentale est l’année. Le temps atomique international a
été défini à partir de la vibration de l’atome de césium. Il
constitue l’échelle de temps officielle. Cette échelle coïncidait
avec l’échelle de temps universel le 1er janvier 1958; l’écart entre
ces deux temps est d’env. une seconde par an. Aussi, en 1972, a été
définie une base du temps légal, le temps universel coordonné (UTC),
établi à partir du temps universel et du temps atomique
international.
température
Phys. La température
d’un corps est une mesure de l’agitation microscopique des
particules qui le constituent. Lorsqu’on fournit de l’énergie à un
corps, cette agitation thermique s’accroît et la température
augmente. Si cette agitation dépasse un certain seuil, les liaisons
qui maintiennent la structure du corps peuvent se rompre et l’on
observe un changement d’état (fusion ou vaporisation, par ex.). Si
l’on refroidit un corps, son agitation thermique diminue. L’état
particulier pour lequel cette agitation est minimale correspond à
l’origine de l’échelle Kelvin, le zéro absolu, ainsi nommé parce
qu’il correspond à un état limite vers lequel on tend sans pouvoir
l’atteindre. Au voisinage du zéro absolu se produisent certains
phénomènes particuliers. (V. supraconductivité.) Pour déterminer la
température d’un corps, on choisit de mesurer une des grandeurs
(dilatation, variation de pression ou de résistance électrique,
etc.) dont les variations accompagnent celles de l’agitation
thermique, après avoir défini la relation entre la température et la
grandeur mesurée. L’échelle de température légale, celle du Système
International (SI), est l’échelle thermodynamique, encore appelée
échelle absolue. Dans cette échelle, la température s’exprime en
kelvins (symbole K). Dans la vie courante, on utilise l’échelle
Celsius. En pratique, l’échelle Celsius diffère extrêmement peu de
l’ancienne échelle centésimale, dont les points de repère 0 et 100
correspondent respectivement aux points de fusion et d’ébullition de
l’eau pure à la pression normale.
Astrophys. On mesure la température
superficielle des étoiles, qui varie généralement entre 5000 et
30000 K, en comparant l’énergie émise dans une gamme de longueurs
d’onde à celle du corps noir, ou en mesurant l’énergie totale,
rayonnée dans toutes les longueurs d’onde. La température à
l’intérieur des étoiles est toutefois beaucoup plus élevée que celle
de l’atmosphère qui les entoure; elle peut atteindre plusieurs
millions de kelvins, température des réactions de fusion nucléaire.
Pour parvenir à la fusion nucléaire contrôlée, il faudrait porter un
plasma, pendant une durée suffisante, à une température aussi élevée
que celle qui règne dans les étoiles. V. fusion et plasma.
thermodynamique
La
thermodynamique repose essentiellement sur deux principes et sur la
notion de système. Un système est un ensemble de corps, délimité
dans l’espace, susceptible d’échanger avec le milieu extérieur du
travail (W) et de la chaleur (Q), et caractérisé par son état à un
instant donné. Lorsqu’un système évolue d’un état à un autre, la
variation de son énergie interne, égale à la somme W + Q, ne dépend
que de l’état initial et de l’état final du système; le premier
principe s’énonce ainsi: la somme du travail W et de la chaleur Q
reçus par un système au cours de son évolution entre deux états 1 et
2 est égale à la variation d’une fonction de l’état du système;
cette fonction, notée U, est appelée énergie interne: W + Q = U2 -
U1; W et Q sont comptés positivement si l’échange s’effectue du
milieu extérieur vers le système et négativement dans le cas
contraire. Dans le cas d’un cycle, l’énergie interne du système est
la même au début et à la fin du cycle: W + Q = 0. Le second principe
de la thermodynamique est le suivant: un système qui décrit un cycle
et qui n’est en contact qu’avec une seule source de chaleur est
incapable de fournir du travail; ainsi, un moteur ne peut
fonctionner, c’est-à-dire fournir un travail W, que s’il existe une
source chaude, qui cède une quantité de chaleur Qc au système, et
une source froide, à laquelle le système fournit une quantité de
chaleur Qf. Le rendement d’un moteur thermique, défini comme le
quotient de W par Qc (quotient noté ), est toujours inférieur à 1 en
raison de l’existence de Qf; il ne peut excéder o = 1 -Tf/Tc, Tf et Tc désignant
les températures thermodynamiques de la source froide et de la
source chaude (théorème de Carnot). Le second principe de la
thermodynamique permet d’affirmer que l’on ne peut transformer
intégralement de la chaleur en travail: l’entropie d’un système
isolé a tendance à augmenter.
Sous sa forme la plus générale, le second principe de la
thermodynamique énonce donc l’irréversibilité des phénomènes
naturels. Résumons les conséquences de ce principe: impossibilité du
transfert spontané de chaleur d’un corps froid à un corps chaud
(énoncé de Clausius); impossibilité d’un moteur monotherme, qui
utiliserait une seule source de chaleur (énoncé de Kelvin); un
moteur ditherme (fonctionnant avec deux sources de chaleur) doit
nécessairement recevoir de la chaleur de la source chaude et en
céder à la source froide (énoncé de Carnot).
Il
existe un troisième principe de la thermodynamique: l’entropie d’un
système est nulle au zéro absolu. La thermodynamique statistique
part du principe que les phénomènes macroscopiques observés sont la
conséquence d’un très grand nombre de phénomènes microscopiques. En
particulier, lorsqu’un gaz est en équilibre, aucune de ses molécules
n’est immobile, mais, en moyenne, il n’y a pas de mouvement
d’ensemble. La thermodynamique a de très nombreuses applications.
Les notions de système et d’entropie jouent un rôle fondamental dans
la théorie de l’information. V. entropie, équilibre, température et
information.
thermoélectronique
Lorsqu’on chauffe
suffisamment une plaque de métal (cathode), celle-ci libère des
électrons qui peuvent être collectés par une plaque portée à un
potentiel supérieur (anode), créant ainsi un courant électrique dont
le sens est, par convention, opposé au sens dans lequel circulent
les électrons.
topologie Une structure topologique (ou
topologie) sur un ensemble X est un ensemble T de parties de X qui
satisfait aux conditions suivantes: la réunion de toute famille
d’éléments de T appartient à T; l’intersection de toute famille
finie d’éléments de T appartient à T (et donc l’ensemble X et sa
partie vide appartiennent à T). Le couple formé par X et par T est
appelé espace topologique. Les éléments de T sont appelés des
ouverts de X et les complémentaires de ces éléments dans X des
fermés de X. Ainsi, dans le plan euclidien, un disque (on disait
autref. «cercle») sera dit ouvert si l’on considère l’ensemble des
points dont la distance au centre est strictement inférieure au
rayon du disque et fermé si l’on considère les points dont la
distance est inférieure (on disait autref. «inférieure ou égale») au
rayon; autrement dit, un disque ouvert ne comprend pas les points
appartenant au cercle (dit autref. «circonférence»); ces points
appartiennent à la fermeture du disque ouvert. La topologie définit
bien d’autres notions, notam. celles de voisinage, d’adhérence et de
filtre, qui permettent de formaliser les notions intuitives de
borne, de frontière, de limite et de continuité.
transfert
Psychanalyse. Au cours
de la cure, le transfert se manifeste en ce que le patient se met à
témoigner à l’analyste qui le soigne une affection exagérée ou une
hostilité marquée (ou, le plus souvent, un curieux mélange des
deux). Ces sentiments, qui sont sans rapport avec la situation
présente, traduisent d’anciens désirs du patient devenus
inconscients et que la cure a fait resurgir. Ils sont
particulièrement nets lorsqu’il s’agit de l’actualisation d’une
situation œdipienne, l’analyste incarnant alors le rôle du père.
Freud mit un certain temps avant de découvrir que le transfert était
une étape indispensable de la cure, un moyen thérapeutique («le plus
puissant de tous»), puisqu’il place l’analyste en présence de
l’essentiel de ce qui avait été refoulé. La «névrose de transfert»
se substitue à la névrose initiale, ce qui favorisera la découverte
de la névrose infantile. Le contre-transfert (ensemble des réactions
inconscientes de l’analyste à l’égard de l’analysé et, surtout, de
son transfert) doit être réduit par l’analyste, de façon à ne pas
«recouvrir» le transfert du patient; il permet d’interpréter des
expressions de l’inconscient chez l’analysé; la résonance entre
l’inconscient du patient et celui de l’analyste constitue une
situation idéale.
transformateur
Électricité. Un
transformateur monophasé comporte: un circuit magnétique fermé
(empilement de tôles d’acier au silicium) et deux enroulements de
fils conducteurs (généralement fil de cuivre isolé) autour d’un
noyau. Si l’on applique une tension sinusoïdale u1 aux bornes de
l’un des enroulements (on l’appellera enroulement primaire), on
obtient une tension sinusoïdale u2 aux bornes de l’autre enroulement
dit enroulement secondaire. En alimentant l’enroulement primaire, on
produit un flux magnétique qui, grâce au circuit magnétique,
traverse l’enroulement secondaire: il y a alors induction d’une
force électromotrice dans celui-ci (comme dans tout conducteur qui
se trouve dans un flux variable). L’enroulement secondaire est
devenu un véritable générateur, ce qui explique que l’on obtienne
une tension entre ses bornes et qu’on puisse l’utiliser pour
alimenter un récepteur (moteur, résistance, etc.).
transgression
Au
cours des temps géologiques, la ligne de séparation entre les océans
et les continents n’a pas occupé une position constante. Ces
variations s’exercent dans un domaine assez limité qui est celui du
plateau continental et des bassins sédimentaires. Le Bassin
parisien, le bassin de Londres et la Manche constituèrent un des
domaines de ces variations en Europe. La base d’une transgression
est caractérisée par le remaniement des roches qui affleuraient à la
surface de la région précédemment émergée. Souvent, une ligne de
galets, formée à partir des roches de la surface, marque cette base.
Un conglomérat de galets emballés dans un ciment gréseux a permis de
détecter, pour la première fois, une transgression: celle qui s’est
produite en Normandie au cambrien. Les grandes transgressions de
l’ère secondaire dans le Bassin parisien ne sont pas marquées par
des conglomérats. Cette absence est due à l’avancée des eaux sur une
région aplanie: la pénéplaine hercynienne. Sur le plan géométrique,
on peut observer que les couches transgressives, horizontales,
reposent d’une façon quelconque sur les couches transgressées. Une
transgression s’opère en plusieurs dizaines de milliers d’années.
Les couches successives qui marquent cette avancée progressive sont
donc transgressives les unes par rapport aux autres. La régression
est l’inverse de la transgression: la mer se retire des zones
continentales qu’elle occupait auparavant. Une régression est
caractérisée par l’évolution des facies sédimentaires, qui tendent à
devenir moins profonds: aux dépôts calcaires se substituent, dans
une même région, des dépôts de gypse ou de sel gemme («évaporites»).
De surcroît, l’extension des terrains régressifs est généralement
plus faible que celle des terrains antérieurs.
transistor
Les
transistors à jonction ont été inventés aux États-Unis en 1948 et,
en 1949, Shockley en a établi la théorie définitive: ils associent
deux zones aux conductibilités différentes, caractérisées par un
excès d’électrons (zone N) ou par un défaut d’électrons (zone P). La
zone centrale est appelée base; les deux autres situées de part et
d’autre, l’émetteur et le collecteur. On distingue les transistors
NPN (la base est une zone P) et PNP (la base est une zone N). Les
transistors sont utilisés pour amplifier les signaux; en effet, le
courant qui passe par le collecteur (courant de sortie) est
sensiblement proportionnel au courant qui passe par la base (courant
d’entrée) mais son intensité est beaucoup plus élevée. La découverte
des transistors a conduit à l’abandon des tubes dans les montages
électroniques, à une diminution de la consommation d’énergie dans
ces montages et à la miniaturisation des circuits électroniques.
tropisme
Chez
les végétaux, les tropismes se caractérisent par l’orientation des
organes en croissance de la plante: l’irrégularité de l’allongement
cellulaire est dû à une perturbation de la circulation de l’auxine.
Le port général de la plante est largement influencé par des
tropismes liés à la lumière (phototropisme), à la pesanteur
(géotropisme) et à la répartition des électrolytes dans le milieu
(chimiotropisme). Aussi, les feuilles et la tige ont un
phototropisme positif (elles s’orientent vers la lumière) et un
géotropisme négatif (elles s’opposent à la pesanteur), alors que les
racines ont un phototropisme négatif et un géotropisme positif. Chez
les animaux, les tropismes sont placés sous le contrôle hormonal et
nerveux (pour leur inhibition). Leurs agents, comme pour les
végétaux, sont de nature chimique (chimiotropisme, intense chez les
insectes) ou physique: phototropisme, thermotropisme (surtout
intense chez les animaux à température variable).
Trou noir. Au cours de sa vie, une
étoile dégage de l’énergie par fusion thermonucléaire en créant une
pression suffisante pour compenser les effets de la gravitation.
Lorsque son combustible est épuisé, cette pression diminue et
l’étoile commence à s’effondrer sur elle-même. Lorsque l’étoile est
très massive (10 fois la masse du Soleil), l’effondrement est
radical, la densité devient gigantesque et le champ gravitationnel
retient les photons: l’étoile n’est plus observable; c’est donc un
«trou noir»; l’autre nom utilisé, collapsar, fait allusion à
l’effondrement de l’étoile. Les trous noirs ont quelque chance
d’être un jour détectés: par leurs effets secondaires s’ils
appartiennent à un système composé de plusieurs étoiles; par
l’action de leur fort champ de gravitation sur les étoiles
voisines.
ultrason
Un ultrason s’oppose aux infrasons, dont la
fréquence, également non audible, est inférieure à 20 hertz. Les
ultrasons se propagent en ligne droite comme les ondes hertziennes
millimétriques et les infrarouges, dont la gamme de longueurs d’onde
est la même. Ils peuvent former des faisceaux d’une haute énergie.
La vitesse de propagation des ultrasons varie avec le milieu
traversé (331 m/s dans l’air, 6400 m/s dans l’aluminium). Les
ultrasons provoquent des changements de l’indice de réfraction des
liquides, donnant naissance à des phénomènes de diffraction. Ils
améliorent les propriétés catalytiques de certains corps et
produisent dans la matière vivante une désagrégation des noyaux
cellulaires, l’éclatement des hématies et l’arrêt des fermentations.
On produit les ultrasons au moyen de générateurs piézoélectriques.
Les applications des ultrasons sont très nombreuses: contrôle des
matériaux, mesure de la vitesse d’écoulement des fluides, usinage,
mise en émulsion des peintures, télécommunication et détection
sous-marine (échosondeurs et sonars), destruction des
micro-organismes, échographie, destruction chirurgicale, microscopie
acoustique, holographie, etc.
Applications médicales. Elles sont de deux sortes:
chirurgicales et diagnostiques. En chirurgie, on utilise des
ultrasons pour pulvériser certaines structures (cristallin dans le
cas de la cataracte, calculs biliaires, rénaux, etc.). En imagerie
médicale, l’échographie utilise des ultrasons ayant une fréquence de
1 à 10 mégahertz. Les divers tissus offrent plus ou moins de
résistance (impédance) à leur passage; ainsi, la vitesse de
traversée est de 4080 m/s pour l’os et de 1450 m/s pour la graisse.
La «sonde», mise au contact de la peau, contient un cristal qui,
soumis à un champ électrique, émet des ultrasons. À l’interface de
deux tissus dont les impédances sont différentes, ces ondes sonores
sont largement (voire totalement) réfléchies. Cet écho est capté par
la même sonde, puis transformé en signal électrique, lequel est
analysé par un ordinateur et visualisé par un écran cathodique.
Dérivé de l’échographie, le Doppler, qui repose sur l’effet Doppler
(V. Doppler), permet notamment d’examiner le débit sanguin, car les
globules rouges réfléchissent les ultrasons que cet appareil émet à
l’intérieur d’un vaisseau sanguin ou à proximité. L’analyse de
l’écho capté permet de mesurer très précisément la vitesse
d’écoulement du sang, de localiser les éventuelles occlusions
vasculaires, sténoses, thromboses, de renseigner sur les résultats
d’un traitement.
Le
microscope acoustique. Il émet des ultrasons dont la fréquence
est de l’ordre du gigahertz, en direction d’objets infimes, capte
l’écho et traite informatiquement celui-ci.
Zoologie. De nombreux animaux (les chauves-souris et
les dauphins, notamment) utilisent les ultrasons, qu’ils sont aptes
à percevoir et à émettre, pour se diriger et pour localiser leurs
proies la nuit, par réverbération acoustique à hautes fréquences
(écholocation).
ultraviolet
Les
rayonnements ultraviolets ont un pouvoir ionisant très élevé. Ceux
qui proviennent du Soleil ionisent les gaz de la haute atmosphère et
sont à l’origine de l’ionosphère. Les rayons ultraviolets sont
fortement absorbés par les cellules vivantes qu’ils modifient
(pigmentation de la peau, multiplication des globules sanguins,
parfois cancers). La couche d’ozone de la haute atmosphère nous
protège de l’action néfaste des ultraviolets. (V. ozone.) Les
ultraviolets impressionnent les émulsions photographiques et
excitent la fluorescence de certaines substances (tubes fluorescents
à vapeur de mercure).
unicellulaire
Les
êtres vivants unicellulaires, nombreux et variés, constituent une
part importante de la biosphère. Ils appartiennent à tous les
règnes: bactérien, végétal (algues unicellulaires, champignons
unicellulaires), animal (protozoaires). Rappelons que les bactéries
sont des procaryotes et que les eucaryotes unicellulaires animaux et
végétaux sont nommés des protistes. Le terme de micro-organisme
recouvre les unicellulaires et les virus. V. aussi plancton. Les
unicellulaires se regroupent parfois en colonies. Les cellules
restent jointives ou voisines après leur division; une gelée les
unit; elles ont toutes les mêmes propriétés. Si l’on extrait une des
cellules, celle-ci reforme une autre colonie. Les pneumocoques
forment des colonies de deux cellules. Les streptocoques forment une
chaîne. Certaines algues vertes forment une sphère creuse contenant
des milliers de cellules. Certains champignons myxomycètes et
certains flagellés ont les deux états: individuel et colonial. On
notera que les levures, unicellulaires, dérivent de champignons
ascomycètes dont les filaments se sont désarticulés en cellules
individuelles.
unité
Physique. Une unité est
une grandeur de référence à laquelle on se rapporte pour mesurer des
grandeurs de même nature (le terme grandeur désignant tout ce qui
est susceptible d’augmenter ou de diminuer, d’être plus ou moins
étendu, plus ou moins intense). Pour qu’une grandeur soit mesurable,
il faut pouvoir définir l’égalité et l’addition de deux grandeurs de
même nature. Ainsi une longueur est une grandeur mesurable, tandis
qu’une température (repérée sur l’échelle Celsius, par ex.) n’est
pas véritablement mesurable, car on peut définir l’égalité de deux
températures mais non leur somme. Pour comparer deux grandeurs de
même nature, on définit une grandeur particulière qui servira de
référence et qu’on appelle unité. Chez les peuples primitifs, les
unités utilisées sont choisies indépendamment les unes des autres,
en faisant abstraction des relations qui peuvent exister entre elles
et en faisant référence à des actes de la vie courante. Ainsi une
longueur sera exprimée en pas s’il s’agit d’une distance et en
pouces s’il s’agit d’un objet, tandis que la mesure d’une surface
agraire sera exprimée en fonction du nombre de jours nécessaires
pour la cultiver. Le développement des sciences exactes a conduit à
l’élaboration de systèmes d’unités cohérentes entre elles, définies
avec précision et de caractère universel. Le système métrique, qui
n’admet que des multiples et sous-multiples décimaux, a été le
premier système d’unités cohérentes universel. Il a été établi en
France par la loi du 7 avril 1795. (V. métrique.) Depuis 1960, la
Conférence générale des poids et mesures a adopté le système
métrique à sept unités de base, appelé système international (SI).
Il a remplacé les anciens systèmes M.K.p.S., C.G.S., M.T.S. et
M.K.S.A., qui doivent leurs noms aux symboles des unités
fondamentales qu’ils utilisaient. Les sept unités fondamentales du
système SI sont le mètre (longueur), le kilogramme (masse), la
seconde (temps), l’ampère (intensité d’un courant électrique), le
kelvin (température thermodynamique), la candela (intensité
lumineuse) et la mole (quantité de matière). L’ensemble de ces
unités permet de définir des unités dérivées, en particulier le
newton (force), le joule (énergie), le watt (puissance), le pascal
(pression) et le hertz (fréquence). Un poids, qui est une force,
doit donc s’exprimer en newtons (et non en kilogrammes) et une
pression en pascals (et non en atmosphères, en bars ou en
millimètres de mercure). En outre, des unités supplémentaires
comprennent le radian, le stéradian et leurs dérivés. Certaines
unités hors système, c’est-à-dire susceptibles de s’exprimer à
partir de celles du système SI, subsisteront du fait de leur emploi
universel (degré Celsius, grade, minute, heure, jour, watt-heure et
électronvolt, en particulier), tandis que d’autres sont condamnées
(calorie, thermie, frigorie, bar, dyne, poise, stokes, etc.). V.
liste des unités.
Univers,
ensemble des corps célestes
et de l’espace (naguère considéré comme infini) où ils se meuvent.
Contestée encore au début des années 1950, la théorie selon laquelle
l’Univers a commencé par une gigantesque «explosion», le big bang,
est devenue la base de la cosmologie moderne, car elle explique les
propriétés fondamentales de l’Univers, en particulier son expansion,
qu’avait mise en évidence l’Américain Edwin Hubble dans les années
1930. Il y a environ 15 milliards d’années, l’Univers était
infiniment condensé et chaud. Le big bang transforma cet état
singulier en une entité dont l’évolution obéit aux lois de la
relativité générale. Les récents progrès de la physique des
particules ont permis de décrire l’histoire de l’Univers à partir de
l’instant t = 10-4³ s après le big bang: son diamètre est alors de
10-²8 cm et sa température de 10³² K; il est dans un état de «vide
quantique». Pendant la période qui s’étend de t = 10-³5 s à t =
10-³² s, l’Univers traverse une phase d’inflation (expansion très
rapide) au début de laquelle les quarks, les électrons, les
neutrinos et leurs antiparticules vont surgir du vide, avec un très
léger excédent de matière par rapport à l’antimatière (un milliard
de particules plus une sont créées contre un milliard
d’antiparticules). Cette «soupe» de particules reste présente
jusqu’à t = 10-6 s, quand la température devient suffisamment basse
(10¹³ K) pour que les associations de quarks restent stables sous
forme de protons, de neutrons et de leurs antiparticules. Particules
et antiparticules vont s’annihiler les unes les autres, aboutissant
à un Univers dominé par le rayonnement (ère radiative) et où ne
subsiste qu’un infime résidu (un milliardième) de particules. La
nucléosynthèse primordiale se déroule entre t = 3 min et t = 30 min:
protons et neutrons peuvent s’assembler en noyaux atomiques légers
tels que l’hélium, l’élément le plus abondant de l’Univers avec
l’hydrogène. À t = 500000 ans, l’Univers s’est assez refroidi (3000
K) pour que les atomes deviennent stables; liés aux protons et
noyaux atomiques, les électrons ne s’opposent plus au rayonnement,
qui se dissocie de la matière: l’Univers est devenu transparent. Ce
rayonnement qui baigne tout l’Univers est encore perceptible
aujourd’hui, mais sa température caractéristique n’est plus que de
2,7 K en raison de l’expansion de l’Univers; en effet, celle-ci
s’est poursuivie pendant les 15 milliards d’années qui se sont
écoulées depuis la période de dissociation. En 1965, la découverte
de ce rayonnement «fossile» (dit cosmologique) par les Américains
Arno Penzias et Robert Wilson apporta une confirmation décisive à la
théorie du big bang. Depuis la phase de dissociation, l’évolution de
l’Univers est déterminée par la gravitation. Si sa densité moyenne
est supérieure à la densité critique (env. 5 × 10-³0 g/cm³), les
forces de liaison gravitationnelle l’emporteront sur l’expansion,
qui finira par s’inverser: une phase de contraction ramènera
l’Univers à son point initial (Univers fermé). Sinon, l’Univers est
condamné à se dilater éternellement (Univers ouvert). Les
estimations de la densité de l’Univers sont encore beaucoup trop
imprécises pour déterminer si l’Univers est ouvert ou fermé. V.
Galaxie, Soleil, Terre, Pluton, Neptune, etc.
université L’Université est née au cours
du Moyen Âge et dépendait alors du clergé. Sous l’Ancien Régime, les
universités étaient créées par une charte royale. Une charte de
Philippe Auguste fonda en 1200 l’université de Paris (nommée par la
suite Sorbonne), qui connut son apogée du XIIIe au XVe s.; à partir
du XVIe s., son opposition à la Renaissance humaniste entraîna son
déclin. En province, d’autres universités virent le jour (notam. à
Toulouse et à Montpellier). En 1806, Napoléon fit de l’Université
l’organisation nationale de l’enseignement, caractérisée par: le
monopole d’État de l’enseignement; une structure fortement
hiérarchisée; une discipline de type militaire. Tout au long du XIXe
s. et surtout sous la IIIe République, on assista à une
«démilitarisation» de l’Université et à un dépérissement du
monopole. Par la suite, le terme d’université désigna le groupe de
facultés dépendant d’une même académie (V. ce mot, sens 3).
L’accroissement considérable du nombre des étudiants (lié à la
démocratisation de l’enseignement) a fait craquer les vieilles
structures (assujettissement financier des universités à l’État,
cloisonnement affectant les relations entre les facultés). Dans le
sillage de mai 1968, l’université «napoléonienne» a été vivement
critiquée et trois principes ont été avancés: l’autonomie (au point
de vue administratif, pédagogique et financier), la participation
(association enseignants-étudiants pour le choix des objectifs), la
pluridisciplinarité. Mais les gouvernements successifs n’ont
accompli aucune réforme radicale. À partir du premier «gouvernement
de cohabitation» (gouvernement de droite sous un président
socialiste: 1986-1988), l’idée d’une privatisation de certaines
universités ou de la création d’universités privées (comme aux
États-Unis) a été énoncée. Parallèlement, la liaison entre
l’université et l’industrie privée préoccupe les esprits, ainsi que
la formation permanente, depuis les années 1980.
uranium
Très
réactif, l’uranium se combine avec la plupart des non-métaux. On le
trouve à l’état d’oxyde UO2 dans la pechblende, que l’on traite pour
obtenir l’uranium, ou sous forme de fluorure UF6, produit de départ
pour la séparation des isotopes de l’uranium: l’uranium 238 (99,3 %)
et l’uranium 235 (0,7 %). L’uranium naturel, radioactif, tend, par
une série de transmutations, à se transformer en plomb 206.
L’uranium 235 étant le plus intéressant lors des réactions de
fission nucléaire, on enrichit l’uranium naturel en uranium 235 par
séparation isotopique (diffusion gazeuse ou ultracentrifugation). En
dehors des usages militaires, l’uranium est utilisé comme
combustible dans les centrales nucléaires. Avec le modérateur et le
fluide caloporteur il forme une filière; si le modérateur est de
l’eau lourde ou du graphite, et le fluide du dioxyde de carbone
(CO2), on parle de filière uranium-eau lourde-gaz ou de filière
uranium-graphite-gaz. L’uranium est très rare; seuls quelques pays
en extraient de leur sous-sol (France, notamment).
vanadium Chim. Réducteur, le
vanadium possède de nombreux degrés d’oxydation. On l’utilise pour
fabriquer des aciers spéciaux résistant à l’usure et aux chocs
(ressorts, soupapes, outils à grande vitesse).
vaporisation
Phys. La vaporisation
d’un liquide cesse dès que la pression de la vapeur qui surmonte ce
liquide atteint une valeur, qui dépend de la température, appelée
pression ou tension de vapeur saturante. Lorsqu’on chauffe un
liquide, il arrive un moment où la pression de vapeur saturante
devient égale à la pression ambiante. Il y a alors ébullition. À
l’air libre, si la pression ambiante est inférieure à la pression de
vapeur saturante, la vaporisation n’est pas limitée: il y a
évaporation. La vaporisation se produit toujours avec absorption de
chaleur, soit par refroidissement du liquide, soit par apport de
chaleur (par ex., ébullition, s’effectuant à température constante,
d’un liquide que l’on chauffe). Cette chaleur est restituée par la
vapeur lorsque celle-ci se condense. Dans les moteurs à vapeur,
l’énergie fournie par le combustible de la chaudière (source chaude)
transforme l’eau en vapeur, laquelle en se détendant dans la turbine
fournit de l’énergie mécanique. Une source froide permet la
condensation de la vapeur qui sera à nouveau vaporisée.
végétal
Un
végétal sur dix n’existe plus ou est en voie de disparition. Quinze
mille espèces doivent être protégées si l’on veut éviter un
appauvrissement irréversible du monde végétal. L’une des raisons de
cette disparition est la sélection entreprise par l’agriculture.
Dans de nombreux pays tropicaux, l’agriculture a introduit des
plantes commerciales aux dépens des cultures vivrières. De nos
jours, une vingtaine de plantes (sur 800000 espèces) assurent
l’essentiel de l’alimentation humaine: céréales (blé, riz, maïs,
mil, sorgho); tubercules (pomme de terre, patate douce, manioc);
légumineuses (pois, haricots, arachides); betterave, banane, noix de
coco, canne à sucre. Leur production en monocultures en font un
fragile rempart contre la famine, car les récoltes massives sont à
la merci des intempéries, d’une maladie ou d’une nuée d’insectes. La
sururbanisation et la pollution sont d’autres facteurs de
disparition, sinon de fragilisation face aux bactéries, aux
champignons ou aux insectes. Tel est le cas du platane qui, placé
vers 1920 dans les jardins publics, les places et le long des
avenues, dépérit; un champignon aérien, le Ceratocystis, est
responsable de ce dépérissement.
L’énergie végétale. Les végétaux chlorophylliens
transforment l’énergie solaire en énergie chimique. Grâce à
celle-ci, ils se développent. Aujourd’hui, l’homme vise à libérer la
puissance qu’ont stockée ces capteurs solaires naturels. Les déchets
agricoles et domestiques constituent un capital exploitable. Le
fumier (produit animal, mais d’origine exclusivement végétale)
fermente et dégage du méthane. Ce gaz ou ses dérivés (transformés en
carburant) peuvent alimenter des moteurs. Chaque ruminant donnerait
l’équivalent de 150 à 200 litres de pétrole par an.
vent
Météorologie. Les vents
sont constitués par de l’air en mouvement. La cause essentielle des
mouvements de l’air réside dans les différences de pression
atmosphérique et de température entre les diverses régions du globe.
Les vents sont sensiblement parallèles aux isobares (lignes d’égale
pression) et tournent, à cause de la rotation de la Terre, en
laissant les centres de hautes pressions sur leur droite dans
l’hémisphère Nord et sur leur gauche dans l’hémisphère Sud.
L’ensemble des mouvements aériens qui animent l’atmosphère a un
aspect ordonné quand on le regarde à une assez grande échelle, par
ex. à partir de satellites. Les alizés sont des vents réguliers. Les
moussons, en revanche, présentent un caractère saisonnier. À plus
petite échelle, la distribution réelle de la pression atmosphérique
et le relief entraînent la formation des vents particuliers; ainsi
soufflent, en France, le mistral, la tramontane et l’autan, dans
d’autres régions du globe le fœhn, le sirocco, etc. Leur énergie
(dite éolienne) peut être utilisée par l’homme, l’utilisation la
plus simple étant l’antique moulin à vent. Le vent est un important
agent d’érosion, car les poussières et particules qu’il transporte
viennent frapper les reliefs. Dans les régions très ventées, le vent
modifie la forme des végétaux qui se développent préférentiellement
dans le sens des vents dominants (formation d’arbres en drapeau).
Pour des végétaux comme les arbres à chatons (amentiflores tels le
hêtre, le noyer) et les graminées, le vent est le principal agent de
pollinisation (anémophilie).
vibration
Physique. Une vibration
est une oscillation périodique, c’est-à-dire qui se répète
identiquement à elle-même à des intervalles de temps égaux. Le plus
petit de ces intervalles, la période de la vibration, s’exprime en
secondes et son inverse, la fréquence, en hertz. Une vibration
sinusoïdale est une vibration dont l’élongation (c’est-à-dire la
distance à laquelle se trouve le point en vibration par rapport à sa
position d’équilibre) s’exprime, en fonction du temps t, par la
fonction sinusoïdale y = a sin (t + ) dans laquelle a est
l’amplitude, c’est-à-dire l’élongation maximale, la pulsation (reliée à la
période T et à la
fréquence f par les formules = / = 2f) et la phase, qui caractérise
la
position du point en vibration à l’instant T = 0.
Toute vibration peut se décomposer en une somme de vibrations
sinusoïdales de fréquences f, 2f, 3f, etc., la fréquence f étant
appelée fréquence fondamentale (théorème de Fourier). Les vibrations
se propagent dans un milieu par transport d’énergie d’un point à un
autre et non par déplacement de matière. Cette propagation
s’effectue à une vitesse V; la longueur dont se propage le
mouvement au cours de la période T est appelée longueur d’onde ( =
VT). Les forces de frottement dans un milieu donné s’opposent à la
propagation des vibrations; celles-ci s’amortissent donc au fur et à
mesure que l’on s’éloigne de la source, avec diminution de
l’amplitude jusqu’à disparition complète du mouvement. L’étude des
vibrations touche de nombreux domaines scientifiques (en particulier
optique, électromagnétisme, radioélectricité, acoustique) et
techniques (élimination des phénomènes de résonance dus aux machines
tournantes, isolation phonique, etc.).
vide
Technique. Pour réaliser un vide poussé, on
utilise une pompe primaire, qui réduit la pression jusqu’à environ
0,1 Pa (pompe rotative à palettes ou pompe absorbant les gaz portés
à basse température), puis une pompe secondaire, qui permet de
réduire la pression jusqu’au niveau souhaité (les turbopompes
moléculaires et les pompes à diffusion permettent d’atteindre 10-6
Pa). Les pressions les plus faibles obtenues jusqu’à présent sont
d’environ 10-¹¹ Pa. On utilise le vide dans de très nombreux
domaines scientifiques et industriels: microscopie électronique,
obtention de métaux de très grande pureté, semiconducteurs,
lyophilisation, simulation du milieu spatial, anneaux de collision
des accélérateurs de particules, etc. Rappelons que l’unité SI de
pression est le pascal (Pa), qui vaut environ le cent millième de la
pression atmosphérique. On mesurait autrefois le vide en torrs
(équivalant environ au millième de la pression atmosphérique).
virus
Les virus sont tous des parasites, ce qui laisse
penser qu’il s’agit d’organismes régressés, simplifiés, et non des
formes primitives de la vie. V. vie. Ils prolifèrent en synthétisant
les acides nucléiques de la cellule parasitée. V. nucléique,
désoxyribonucléique et ribonucléique. La particule virale a une
partie centrale, le virion, constituée d’acide nucléique (A.D.N. ou
A.R.N.) et qu’enveloppe une coque, la capside, formée
essentiellement de protéines. Autour de la capside peut exister une
nouvelle enveloppe, qui contient des éléments de la cellule hôte et
assure, semble-t-il, un «camouflage» immunitaire. Les virions sont
disposés de façon très régulière, géométrique et, selon leur forme,
on distingue trois grandes classes: 1. les virus à symétrie cubique,
où les virions forment des solides polyédriques, et à l’intérieur
desquels l’acide nucléique se présente sous forme de filaments
enchevêtrés; 2. les virus à structure hélicoïdale, où les virions
présentent un canal central entouré d’un cylindre d’acide nucléique
aux filaments régulièrement agencés et entouré d’un manchon; 3. les
virus à structure double, dont les virions possèdent une tête à
structure cubique et une sorte de queue à structure spiralée; ce
sont les principaux bactériophages. La nature biochimique du virion
permet de déterminer deux grands groupes: les virus à A.D.N. et les
virus à A.R.N., dits aussi rétrovirus. Dans le premier groupe, le
virion est constitué par un fragment d’A.D.N. capable de s’insérer
sur des sites particuliers de l’A.D.N. chromosomique de la cellule
parasitée. Dans le second groupe, exceptionnel parmi les êtres
vivants, le virion ne possède que de l’A.R.N. Lors de l’infection
virale, l’enveloppe du virion, grâce à sa nature de membrane
cytoplasmique, se met en continuité avec celle de la cellule
parasitée. De la vésicule ainsi formée, le contenu est libéré dans
le cytoplasme selon un processus qui rappelle la phagocytose et le
virion est dissocié (phase d’éclipse) comme s’il était digéré; bien
qu’il ne soit plus détectable, il n’est pas détruit et la cellule
élabore les constituants nécessaires à sa multiplication. Les virus
à A.R.N. (dont font partie, notamment, le virus de la grippe et
celui du sida) présentent deux modes de multiplication. Au cours de
la phase d’éclipse, les molécules d’A.R.N. viral peuvent être
répliquées en nouvelles molécules d’A.R.N. viral, sous l’effet
d’enzymes; chez certains virus à A.R.N., une enzyme, la
transcriptase-inverse, peut transcrire une copie sur une molécule
d’A.D.N. (opération inverse de celle qui se déroule normalement lors
de la protéosynthèse). Quant aux virus à A.D.N., ils détournent une
partie des mécanismes de protéosynthèse à leur profit. On estime que
la plupart des virus peuvent avoir: soit une activité pathologique
banale et spécifique; soit une activité génétique et cancérigène;
les conditions physico-chimiques de l’environnement cellulaire chez
l’organisme parasité jouent un rôle majeur dans les diverses
activités virales. Les antibiotiques sont impuissants face aux
virus. En revanche, vaccination et sérothérapie sont possibles.
Contre les virus, l’organisme se défend spontanément en élaborant
des interférons. V. interféron.
viscosité
Phys. Les forces de
viscosité ont une très grande importance pratique, car elles
conditionnent l’écoulement des fluides dans les canalisations et le
long des parois. La viscosité dynamique des gaz augmente avec la
température, mais ne varie pratiquement pas avec la pression. Celle
des liquides décroît avec la température, mais croît fortement avec
la pression. Celle des liquides décroît avec la température mais
croît fortement avec la pression. Exprimée en poiseuilles, la
viscosité dynamique de l’eau est égale à 10-³; celle de la glycérine
à 0,85. V. verre.
vitesse
En
physique, d’une manière générale, le mot vitesse exprime le quotient
d’un espace (ou d’un angle) et d’un temps. Ainsi, la vitesse
linéaire d’un mobile dont la trajectoire est en principe une droite
s’obtient en faisant le quotient de l’espace parcouru et du temps
mis à le parcourir. Si ce quotient est constant, le mouvement est
dit uniforme; dans le cas contraire, il est dit varié. Pour un
mouvement varié, il faut distinguer les notions de vitesse moyenne
et de vitesse instantanée. L’unité de vitesse linéaire du système
international est le mètre par seconde (symbole: m/s). On utilise
aussi des multiples ou des sous-multiples. Dans le langage courant
on emploie le kilomètre par heure (à tort souvent appelé le
kilomètre-heure); 1 km/h
0,278 m/s. Dans le cas où la trajectoire est une courbe, il
est possible d’assimiler l’arc parcouru pendant un intervalle de
temps infiniment petit à un segment de droite. La vitesse linéaire
déterminée dans ces conditions porte aussi le nom de vitesse
tangentielle. La vitesse linéaire ayant les caractéristiques d’une
grandeur vectorielle, on peut la représenter par un vecteur dont la
droite d’action est la tangente à la trajectoire au point considéré.
On peut également considérer non plus l’arc parcouru, mais l’angle
au centre qui lui correspond. Le quotient prend alors le nom de
vitesse angulaire du mobile et a pour symbole . On l’exprime en
radians par seconde (rd/s). Dans le cas d’un mouvement circulaire
uniforme, c’est-à-dire dont la vitesse angulaire est constante, on
indique souvent, non pas cette vitesse angulaire, mais le nombre n
de tours effectués en une minute; cette grandeur est la fréquence de
rotation du mouvement. Pour un mobile de vitesse linéaire v, de
vitesse angulaire , sur une trajectoire circulaire de rayon r, on
peut écrire les relations suivantes: v = r; v = 2 n/30; = n/30. En ce qui concerne la
célérité (terme préférable à vitesse de la lumière), V. lumière.
Zoologie. Vitesses atteintes par quelques animaux: le
guépard peut dépasser 100 km/h, un cheval de course 70 km/h, un
faucon pèlerin en piqué 300 km/h. Des cailles traversent la
Méditerranée, de la Tunisie au Latium, en sept heures, soit à une
moyenne de 70 km/h. Les libellules atteignent 80 km/h. Contrairement
à la légende, la mouche ne peut se déplacer à la vitesse du son,
c’est-à-dire à environ 330 m/s: à une telle vitesse, l’insecte se
consumerait en vol. L’homme se déplace à des vitesses plus modestes:
le recordman du monde du 100 m dépasse à peine les 36 km/h!
Wilson (Charles Thomson Rees) (Glencorse,
Écosse, 1869 Carlops, Borders, 1959), physicien écossais. Il
mit au point en 1912 la chambre de Wilson, chambre d’ionisation
contenant de l’air saturé de vapeur d’eau. P. Nobel de physique 1927
avec A. H. Compton.
Wilson (Kenneth Geddes) (Waltham,
Massachusetts, 1936), physicien américain; connu pour son importante
contribution à l’étude des transitions de phase. P. Nobel de
physique 1982.
Wilson (Robert
Woodrow) (Houston, 1936), radioastronome
américain. On lui doit la découverte (1965) du rayonnement
thermique du fond du ciel. P. Nobel de physique 1978 avec A. Penzias
et P. L. Kapitsa.
Windaus (Adolf), chimiste allemand (Berlin,
1876 Göttingen, 1959). Il reçut le prix Nobel de chimie
en 1928 pour ses travaux sur les stérols et la synthèse biologique
de la vitamine D.
Winnicott (Donald Woods) (Plymouth, 1896
Londres, 1971), pédiatre et psychanalyste anglais. Il étudia
partic. le développement psychique de l’enfant dès sa naissance
(soulignant l’importance de ses rapports avec sa mère).
Wöhler (Friedrich) (Eschersheim, Hesse, 1800
Göttingen, 1882), chimiste allemand. Il isola
l’aluminium (1827), le béryllium, le bore, et réalisa la première
synthèse de chimie organique, celle de l’urée, et une préparation de
l’acétylène.
Wolff (Étienne) (Auxerre, 1904
Paris, 1996), biologiste français. Ses travaux d’embryologie et de
tératologie le conduisirent à provoquer expérimentalement
l’inversion du sexe chez des embryons d’animaux ainsi qu’à cultiver
in vitro des tissus embryonnaires. Acad. fr. (1971).
Wollaston (William Hyde) (East Dereham,
Norfolk, 1766 Londres, 1828), médecin, chimiste et physicien
anglais. Il perfectionna la pile de Volta. Pionnier de la
spectroscopie, il découvrit les lignes noires du spectre solaire. Il
isola le palladium et le rhodium.
Wood (Robert Williams) (Concord,
Massachusetts, 1868 Amityville, État de New York, 1955),
physicien américain; connu pour ses travaux d’optique et de
spectroscopie. ¶ OPT Lumière de Wood ou lumière noire: rayonnement
ultraviolet provoquant la fluorescence de certaines substances.
Woodward (Robert Burns) (Boston, 1917
Cambridge, Massachusetts, 1979), chimiste américain. Il
réalisa de nombr. synthèses organiques: quinine, cholestérol,
cortisone, chlorophylle (1961). P. Nobel de chimie 1965.
Woolley (sir Charles Leonard), archéologue
britannique (Londres, 1880 id., 1960). Il est surtout connu
pour ses fouilles d’Our (1922-1944), qui contribuèrent grandement à
la résurrection de la civilisation sumérienne. Il y découvrit les
célèbres tombes royales et retrouva les traces d’un déluge dans ses
stratigraphies. Il
publia The Sumerians (1928), Ur of the Chaldees (1929) et A
Forgotten Kingdom (1953).
Wurtz (Charles Adolphe) (Strasbourg, 1817
Paris, 1884), chimiste français; l’un des créateurs de la
théorie atomique. Il découvrit les amines, le glycol et l’aldol.
zéro
Physique. On désigne
par zéro absolu la valeur la plus basse de l’échelle des
températures absolues (ou thermodynamiques). Cette valeur minimale
peut être déduite de l’équation d’état des gaz parfaits: la pression
du gaz étant constante, son volume massique (c’est-à-dire le volume
de l’unité de masse) est proportionnel à la température absolue; le
zéro absolu est donc la température qui correspond à un volume
massique nul. Actuellement, la température absolue (T), dont l’unité
est le kelvin, est définie par la relation: T = t + 273,15; t est la
température mesurée à l’échelle Celsius, qui est définie par sa
valeur correspondant au point triple de l’eau, à savoir t = 0,01 °C.
Le zéro absolu (T = 0) correspond donc à la température Celsius t =
- 273,16 °C. Le procédé de refroidissement consistant à soumettre un
gaz à une série de détentes adiabatiques suivies chacune d’une
compression isotherme n’a qu’une portée limitée. Pour obtenir des
températures plus basses, on a recours à la démagnétisation
adiabatique de certaines substances; la température minimale que
l’on peut obtenir est de l’ordre de 0,01 à 0,001 K. On réalise un
refroidissement encore plus poussé en soumettant à la
démagnétisation les noyaux atomiques, au lieu des électrons comme
dans le cas précédent; ce procédé permet d’obtenir des températures
de l’ordre de 10-6 K. La détermination d’une telle température est
effectuée en traçant dans un diagramme des courbes correspondant
chacune à une valeur fixe du champ magnétique et, en particulier, à
un champ nul.
zirconium
Le
zirconium a une masse volumique (6,5) plus élevée que celle du
titane. Résistant bien à la corrosion et absorbant peu les neutrons
thermiques, il est utilisé pour gainer les éléments fissiles
introduits dans les réacteurs nucléaires.
zoologie
La
zoologie est un ensemble de disciplines dont chacune envisage le
règne animal sous un angle différent: systématique, écologie,
psychologie (qui correspond presque à l’éthologie), paléontologie,
etc. C’est surtout à la lumière des découvertes paléontologiques que
de grandes modifications ont été apportées à la classification de
certains groupes; ainsi, les poissons sont apparus comme un ensemble
extrêmement artificiel, d’où les agnathes (lamproies) doivent être
exclus et qu’il faut scinder en deux groupes distincts: les poissons
osseux et les poissons cartilagineux; il en va de même des reptiles.
Pour définir une espèce animale, l’aspect extérieur n’est plus le
seul critère; le systématicien utilise les données biochimiques,
cytologiques, sérologiques, l’étude du chant ou des cris (donc du
«langage») de certaines espèces, etc.; il établit des statistiques
concernant telle espèce, tel biotope, telle population, etc., et les
traite informatiquement. V. cladisme.
L’inventaire de la faune de la planète est loin d’être
terminé. Plusieurs animaux de grande taille ont encore été
découverts au XXe s.,
notam. dans la grande forêt d’Afrique tropicale (okapi, hippopotame
nain, paon congolais, etc.), en Asie (varan de Komodo), en Amérique
du Sud, dans l’océan Indien (cœlacanthe). Les découvertes ont été
beaucoup plus abondantes parmi les espèces de petite taille au cours
de l’exploration des eaux douces, des cavernes et, surtout, des
océans. Parmi les grands embranchements d’animaux, les
classifications retiennent notam.: protozoaires; spongiaires;
cnidaires; plathelminthes; némathelminthes; mollusques; annélides;
pararthropodes; arthropodes; échinodermes. Le dernier embranchement,
celui des cordés, aboutit à l’homme. Il comprend trois
sous-embranchements: tuniciers (ascidies, par ex.), céphalocordés
(amphioxus), vertébrés. Le sous-embranchement des vertébrés
comprend: agnathes, poissons cartilagineux, poissons osseux,
amphibiens, reptiles, oiseaux, mammifères; on ne sait pas encore si
les reptiles sont issus des amphibiens ou des crossoptérygiens
(poissons osseux dont le seul représentant actuel est le
cœlacanthe); en revanche, il est acquis que certains reptiles
(dinosaures avipelviens) ont donné naissance aux oiseaux et d’autres
(reptiles mammaliens) aux mammifères.
zoopsychologie
Les
zoopsychologues s’attachent de plus en plus à l’étude du
comportement des animaux
dans leur milieu naturel. Les expériences de dialogue avec
les singes anthropomorphes se multiplient. Deux psychologues de
l’université du Nevada, R. A. et B. Gardner avaient réussi, dès les
années 1960, à engager le dialogue avec un chimpanzé femelle, à
laquelle ils avaient appris le langage gestuel des sourds-muets. Au
bout de quatre ans, la guenon, Washoe, connaissait 132 signes. Elle
fit preuve de généralisation et d’abstraction. Elle parvint à
combiner plusieurs signes pour signifier, par ex., «Donne-moi
nourriture» ou «Emmène-moi voir fleurs». Un autre psychologue
américain a employé des jetons en plastique, qui matérialisent des
symboles et qui peuvent être collés sur un tableau. Une troisième
méthode de dialogue consiste à
utiliser un ordinateur relié à un clavier sur lequel tape le
singe. Une psychologue de l’université de Stanford, en Californie, a
appris le langage gestuel à une femelle gorille, Koko. Celle-ci, qui
possède un vocabulaire de plusieurs centaines de mots, est la
vedette du film de Barbet Schroeder: Koko, le gorille qui parle
(1977). Les animaux n’ont vraisemblablement pas de «langage» au sens
humain. Le dauphin dispose d’un protolangage, c’est-à-dire d’un
langage sans syntaxe. En dehors des primates et des cétacés, les
animaux qui intéressent le plus les zoopsychologues demeurent les
oiseaux et les insectes sociaux. La découverte des phéromones a
permis de mieux comprendre les communications au sein de colonies
d’insectes. Les capacités sensorielles ont donné lieu à de nombreux
travaux; ils ont permis la découverte d’organes tout à fait
inattendus, comme la fossette, grâce à laquelle les serpents sont
sensibles aux rayons calorifiques. L’étude de l’orientation des
animaux migrateurs a progressé: les oiseaux utilisent le soleil et
les étoiles comme repères et, sans doute, le champ magnétique; les
poissons se guident par leur odorat.