Aperçu du numéro d’octobre de la revue de l'électricité et de l'électronique
-
Upload
jean-pierre-hauet -
Category
Documents
-
view
232 -
download
0
description
Transcript of Aperçu du numéro d’octobre de la revue de l'électricité et de l'électronique
énergie telecommunications signal composants automatique informatique
Nu
mér
o
2
012
editorial La physique, fondement du progrès
Jean-Pierre Hauet
eNtretieN avec Gérard Théry
Ancien Directeur Général des Télécommunications
www.see.asso.fr
4
ISSN
126
5-65
34
dossiers
Les atomes froids
L'articLe iNvité
Smart grids et normalisationPar Alain Doulet
REE N°4/2012 ◗ 1
A l’heure où nous bouclons ce numéro de la REE, la nouvelle de l’attribution du prix No-bel de physique au Français Serge Haroche
et à l’Américain David J. Wineland nous parvient, ré-compensant les travaux que l’un et l’autre ont menés, chacun de leur côté, sur la manipulation de photons et d’atomes à un niveau où la description de la matière passe du domaine de la physique classique à celui de la physique quantique, où le déterminisme cède la place à la connaissance probabiliste, en parvenant, au prix d’expériences infiniment délicates, à mettre en évi-dence le phénomène fondamental de la décohérence.
La REE se réjouit bien entendu de l’attribution du prix de Nobel de physique à un 13e lauréat fran-çais. Elle s’en réjouit d’autant plus qu’elle vient ré-compenser des travaux d’une valeur incontestée qui ouvrent la voie à des sauts technologiques fantastiques, sur la mesure du temps avec des ni-veaux de précision extraordinaires et puis, à plus long terme, sur les fameux ordinateurs quantiques.
La REE s’intéresse depuis longtemps à ces travaux. En novembre 2004, elle publiait un article invité du Dr. Yury Mukharsky « Les qubits et le calcul quanti-que ». Au printemps dernier, elle consacrait un long Flash-Info à la réalisation par IBM d’un dispositif su-praconducteur intégré sur une puce de silicium, réali-sant une opération logique sur 2 qubits. Aujourd’hui, nous publions un dossier complet sur les atomes froids, ces atomes ralentis par laser jusqu’à un stade où les ondes de matière associées deviennent obser-vables et utilisables dans des centrales inertielles ou des gravimètres extraordinairement précis. Avec les premiers travaux sur les atomes froids, qui valurent
le prix Nobel 1997 au Français Claude Cohen-Tan-noudji – qui naguère fut directeur de thèse de Serge Haroche, s’ouvrait l’ère des manipulations quantiques sur la matière et de l’exploration de nouveaux états.
Tout ceci est bien lointain penseront certains et fort éloigné de nos préoccupations quotidiennes. Il n’en est rien. Notre deuxième dossier sur les nouvelles technologies de l’éclairage vient à point nommé pour le montrer. Pendant plus d’un siècle, la lampe à incan-descence, inventée en 1879, a régné en maître dans les foyers apportant un confort inconnu jusqu’alors mais au prix d’un rendement lumineux extrêmement médiocre (1 à 2 %). Pendant des décennies, la tech-nologie a tâtonné, incapable de proposer une solution efficace apportant un confort visuel équivalent à celle des lampes de Swan et d’Edison. Et puis tout d’un coup, les LED et les OLEDs, issues à la fois de la recherche fondamentale et du progrès technologique, font une irruption massive dans les supermarchés, avec des durées de vie et des efficacités énergétiques 10 fois supérieures à celles des solutions traditionnelles.
Nous sommes convaincus que dans quelques dé-cennies, les grands centres de calcul, véritables gouf-fres à énergie dont le rendement thermodynamique n’excède pas 1 ‰, tireront parti des principes fon-damentaux que le prix Nobel 2012 est venu récom-penser. Dans la grisaille du moment, ces découvertes, replacées dans la perspective de l’évolution techno-logique de l’éclairage, sont autant de lueurs d’espoir.
Jean-Pierre Hauet Président du Comité Editorial
La physique, fondement du progrès
editorial jean-pierre hauet
2 ◗ REE N°4/2012
sommaireNuméro 4 2012
1 Editorial La physique, fondement du progrès Par Jean-Pierre Hauet
2 sommairE
5 Flash iNFos Serge Haroche : le 13e prix Nobel de physique français
La découverte du Boson de Higgs, si elle est avérée, confirmera le modèle standard
Un transistor optique à 10 GHz
REVEL : un contact virtuel dans un monde réel
Les batteries au lithium-Ion : de beaux jours en perspective ?
Le mystère des batteries au plomb enfin éclairci ?
Un mois de juin très chaud…..
15 a rEtENir Congrès et manifestations
18 ViENt dE paraîtrE La REE vous recommande
21 articlE iNVité Smart grids et normalisation Par Alain Doulet
29 lEs graNds dossiErs L'éclairage Introduction : L’éclairage : un remarquable saut technologique Par Jean-Pierre Hauet
31 La révolution technologique de l’éclairage Par Christophe Cachoncinlle, Georges Zissis
42 Evolutions et perspectives de l’éclairage - Applications des OLEDs Par Marc Ternisien, David Buso, Georges Zissis, Sounil Bhosle
48 Les technologies nouvelles de l’éclairage : leur impact sur l’environnement et la santé Par Sébastien Point
p. 29
p. 55
p. 1
p. 21 p. 89 p. 101
Credit photo couverture : Multi Colored Building © openlens - Fotolia.com. Conception, JC. Malaterre
REE N°4/2012 ◗ 3
55 Les atomes froids Introduction : Les atomes froids Par Michèle Leduc, Pierre Cladé
57 Comment refroidir les atomes froids avec la lumière laser ? Principes et techniques Par Saïda Guellati-Khelifa, Pierre Cladé
67 Senseurs d’inertie à ondes de matières. Des appareils de préci-sion pour la navigation, la géophysique et les tests spatiaux
Par Philippe Bouyer, Arnaud Landragin
71 Atomes froids et physique du solide Par Frédéric Chevy, Xavier Leyronas, Laurent Sanchez-Palencia
81 rEtour sur ... Le paradoxe EPR Par Marc Leconte
89 ENtrEtiEN aVEc... Gérard Théry Ancien Directeur Général des Télécommunications
93 ENsEigNEmENt & rEchErchE SONDRA – Un “golden gate” entre Paris-Saclay et Singapour Par Marc Lesturgie, Sylvain Azarian
96 Echos de l’enseignement supérieur Par Bernard Ayrault
99 chroNiQuE Prospective et utopie Par Bernard Ayrault
101 librEs propos Les réseaux au secours de l’écosystème Par Thierry Gaudin
105 sEE EN dirEct La vie de l'association
MEA
201
2
More electric AircrAft
20-21 November 2012Bordeaux (France)
For more information, please contact:> Registration: [email protected]> Exhibition: [email protected]
http://www.mea2012.eu/venue
REE N°4/2012 ◗ 5
FlashInfos
Serge Haroche : le 13e prix Nobel de physique français
Le prix Nobel de physique 2012
a été décerné à Serge Haroche,
professeur au Collège de France
et directeur de recherche au La-
boratoire Kastler Brossel au sein
de l’École normale supérieure à
Paris, et à David Wineland, cher-
cheur de l’Institut américain des étalons et de la techno-
logie (NIST) à Boulder aux États-Unis. Le comité Nobel
a motivé l’attribution du prix par leurs recherches es-
sentielles dans la conception de dispositifs permettant
de contrôler et de mesurer des systèmes quantiques
dont les applications vont des horloges de précision à la
conception de futurs ordinateurs quantiques.
Serge Haroche et ses collègues du laboratoire de l’ENS
ont, mis au point des systèmes de cavités supraconductri-
ces contenant quelques photons piégés par deux miroirs
réfléchissants se faisant face. Il a ainsi développé une
technique permettant d’obtenir l’état des photons par un
changement d’état de l’atome sonde, sans perturber le
système. Avec ce dispositif, Serge Haroche et son équipe
ont réussi à reproduire matériellement le phénomène de
la décohérence qui décrit le passage du comportement
quantique d’un système, pouvant être dans une superpo-
sition d’états quantiques, à un comportement classique.
La décohérence est un résultat important de l’interpré-
tation moderne de la mécanique quantique et apporte
une réponse au célèbre paradoxe du chat de Schrödinger.
En 1935, Erwin Schrödinger a imaginé un chat dans une
boîte fermée où l’on aurait introduit un atome radioactif.
Si cet atome se désintégrait, du cyanure était libéré dans
la boîte et tuait le chat. La désintégration de l’atome sui-
vant une loi de probabilité, le chat acquiert, une probabi-
lité d’être en vie ou d’être empoisonné par le cyanure. En
conséquence l’animal est à la fois mort et vivant jusqu’à
ce que l’on ouvre la boîte. Serge Haroche, plus clément à
l’égard des chats, les a remplacés par des photons dans
une cavité entre deux miroirs sphériques à très basse
température pour réduire au maximum les interactions
avec le milieu. Un atome est préparé à l’aide d’impul-
sions micro-ondes afin qu’il se trouve dans deux états
d’énergie superposés, puis cet atome est envoyé dans
la cavité, amenant le champ de photons dans un état de
superposition quantique. Un deuxième atome est envoyé
et comparé à la sortie à celui du premier et ainsi de suite.
Serge Haroche et son équipe ont découvert que plus l’in-
tervalle de temps entre l’envoi de deux atomes était long,
plus leurs états différaient à la sortie, ce qui montrait que
la superposition d’états disparaissait rapidement. On sa-
vait que le phénomène de décohérence apparaissait très
rapidement mais on n’avait pas observé la transition, qui
a été mise en évidence expérimentalement sans que la
« boîte de Schrödinger » soit ouverte, c’est-à-dire sans que
les photons aient été absorbés. Les expériences conçues
par Serge Haroche ont permis la manipulation des états
quantiques dans des cavités supraconductrices, manipu-
lations que certains physiciens cherchent à exploiter pour
réaliser des ordinateurs quantiques1.
Les travaux de David Wineland, colauréat du prix No-
bel, sont complémentaires de ceux de Serge Haroche. Le
physicien américain a étudié des ensembles d’atomes
ionisés et piégés par un champ électrique, dans des dis-
positifs nommés pièges de Paul. Des photons contrôlent
l’état quantique des ions avec précision. David Wineland a
ainsi expérimenté des opérations élémentaires de calcul
quantique, composants d’un futur mais encore hypothé-
tique ordinateur quantique. Toujours avec des ions, il a
également développé une horloge optique reposant sur
les oscillations d’ions aluminium plus précise d’un ordre
de grandeur que les horloges au césium. Une telle hor-
loge fonctionnant depuis le début de l’univers donnerait
l’heure avec une erreur de moins de cinq secondes.
Le prix Nobel de physique a été créé en 1901 et deux
de ses lauréats Gabriel Lippmann et Louis de Broglie ont
été en leur temps président de la SEE. Serge Haroche est
le treizième prix Nobel français de physique après Henri
Becquerel, Pierre et Marie Curie en 1903, Gabriel Lippmann
en 1908, Jean-Baptiste Perrin en 1926, Louis de Broglie
en 1929, Alfred Kastler en 1966, Louis Néel en 1970, Pier-
re-Gilles de Gennes en 1991, George Charpak en 1992,
Claude Cohen-Tannoudji en 1997 et Albert Fert en 2007.
Le prix Nobel de Serge Haroche s’inscrit dans la filiation de
ceux décernés à Claude Cohen-Tannoudji, Alfred Kastler
et Louis de Broglie. C’est en effet la physique quantique
dont Louis de Broglie est l’un des fondateurs qu’explore
Serge Haroche depuis le début de sa carrière commen-
cée au début des années 70 au sein du laboratoire de
physique de l’Ecole normale supérieure. Son directeur de
thèse est Claude Cohen-Tannoudji et sa thèse a pour titre
« l’atome habillé ». L’impressionnante liste de ses publica-
tions dans des revues spécialisées permet de dessiner la
suite de ses travaux depuis 1971 qui ont le point com-
mun de s’intéresser aux propriétés des objets quantiques.
6 ◗ REE N°4/2012
FlashInfos
Il est remarquable de constater la fécondité du Laboratoire
Kastler Brossel de physique de l’Ecole normale supérieure
qui fut animé par Alfred Kastler et qui a su redonner un
prestige international à la physique française après la guer-
re. Il est également remarquable de constater que ce sont
deux équipes françaises qui ont concrétisé les deux gran-
des expériences de la pensée de la physique quantique,
le chat de Schrödinger avec Serge Haroche et le paradoxe
d’Einstein Podolsky Rosen avec Alain Aspect2. ■ML
1 Voir REE N°2/2012 page 62 On trouvera sur ce paradoxe un développement dans la rubrique
« Retour sur… » de ce même numéro.
La découverte du boson de Higgs, si elle est avérée, confirmera le modèle standard 4 juillet 2012 : le boson de Higgs aurait été découvert
Le 4 juillet 2012 éclatait dans tous les médias l’annonce
par le CERN de la découverte très probable du boson de
Higgs. Des titres parfois extravagants envahissaient la pres-
se généraliste en plein été, parlant de particule de Dieu, de
particule manquante qui allait expliquer l’univers, etc.
Dans l’un des quotidiens du soir (le Monde) on pou-
vait trouver une illustration suggestive montrant un puzzle
auquel il manquait une pièce : le boson de Higgs. Celui-
ci fait en effet partie des particules élémentaires qui ont
été postulées au sein d’un même modèle théorique, le
modèle standard, et pour la recherche desquelles de gi-
gantesques accélérateurs de particules ont été construits
en Europe et aux Etats-Unis. Le dernier en date est le LHC
(Large Hadron Collider) exploité depuis 2008 par le CERN,
près de Genève, et qui, grâce à un anneau de 26,6 km
de circonférence, permet d’organiser des collisions proton-
proton à un niveau d’énergie jamais atteint à ce jour de 14
TeV1. Deux grands programmes de recherche, fondés sur
les détecteurs géants ATLAS et CMS, ont été immédiate-
ment lancés afin de traquer le fameux boson.
Retour sur le modèle standard
Depuis que la physique utilise les mathématiques
comme modèle de représentation des phénomènes, la
1 L’électron-volt (eV) et ses multiples (keV, MeV, GeV, TeV) sont des unités de mesure d’énergie utilisées en physique des particules pour exprimer les niveaux d’énergie rencontrés dans les accéléra-teurs de particules. Un eV équivaut à 1,60217653 × 10-19 joule (J). L’eV.c-2 est une unité de masse et équivaut à 1.783 10-36 kg.
recherche de simplification des modèles par l’unification
des forces de la nature et la recherche de symétries a
été un puissant moteur de découverte. De Newton à
Einstein, on pensait que le monde n’était fait que de ma-
tière dans un éther. Au début du 20e siècle la relativité
restreinte a fait disparaître l’éther et on a inversé la pro-
position, le monde n’est fait que de champ et la matière
est l’une des manifestations du champ qui est donc le
socle fondamental. On s’est attelé à l’unification des deux
champs connus à l’époque, le champ gravitationnel et
le champ électromagnétique. Cette unification a été un
échec. Einstein aura cherché jusqu’à la fin de sa vie mais
sans succès à mettre au point sa théorie des champs
unifiés. Cependant, l’approche quantique du champ élec-
tromagnétique sera un plein succès et donnera naissance
à l’électrodynamique quantique de Tomonaga, Schwinger
et Feynman. En parallèle la découverte de nouvelles par-
ticules élémentaires et les progrès de la physique atomi-
que ont permis d’approfondir la connaissance du noyau,
de la force nucléaire forte qui assure sa cohésion et de
la force nucléaire faible qui est responsable de la désin-
tégration β (un neutron se transformant en proton plus
d’autres particules).
A partir des années 60, les physiciens ont construit
le modèle standard qui décrit les trois interactions élec-
tromagnétique, forte et faible. Un modèle mathématique
découlant d’un principe de symétrie unique commun à
tous les modes d’interaction constitue le cadre théorique
du modèle standard.
Une première unification a été réalisée par Glashow,
Salam et Weinberg entre l’interaction faible et l’interac-
tion électromagnétique sous forme d’un champ unique
appelé interaction électrofaible qui forme aujourd’hui la
première composante du modèle standard. Les bosons
porteurs de cette interaction, les W± et Z0, dont l’existence
avait été prédite dès les années 1960, ont été découverts
au CERN en 1983 et confirmés par la suite grâce au LEP
(Large Electron-Positron Collider).
La chromodynamique quantique fondée sur l’existen-
ce des quarks en tant que constituants élémentaires des
protons et neutrons, a été mise au point dans les années
60 et constitue le deuxième pilier du modèle standard tel
que nous le connaissons aujourd’hui.
La rupture de symétrie de la force électrofaible
et le champ de Higgs
L’idée d’unification de l’électromagnétisme et de la force
faible consistait à considérer que ces interactions étaient
REE N°4/2012 ◗ 7
FlashInfos
régies par des forces de jauge, ou symétries de jauge, dont
le prototype le plus simple est l’électromagnétisme. Le
porteur ou « boson » de l’interaction électromagnétique
est le photon dont la masse nulle autorise une interaction
à portée infinie. En 1957 les expériences de Yang et Mills
permirent d’affirmer que la force faible était également une
force de jauge. La très courte portée de l’interaction faible
impliquait des bosons massifs, mais la théorie stipulait que
les bosons de jauge devaient être de masse nulle ce qui
soulevait une contradiction théorique.
Abdus Salam et Steven Weinberg avancèrent alors
l’idée que cette contradiction pouvait être la conséquen-
ce d’une brisure de symétrie et que les masses de bo-
sons W± et Z0 médiateurs de l’interaction faible devaient
provenir d’une transition de phase comme il en existe
beaucoup dans la nature (passage de l’eau en glace par
exemple). L’idée émise fut qu’il existait un champ sca-
laire, dénommé champ de Higgs du nom de l’un de ses
inventeurs, capable d’interagir avec les bosons intermé-
diaires W± et Z0 mais sans effet sur le photon de masse
nulle. Ce champ se manifesterait par le mécanisme de
Higgs2 expliquant que dans le domaine des basses éner-
gies les bosons W± et Z0 acquièrent une masse inertielle
qui les différencie du photon. Dans le domaine des hau-
tes énergies, celui qui prévalait peu après le big bang,
la « mélasse » Higgsienne ne remplit plus l’espace et la
symétrie entre les bosons W±, Z0 et le photon se trouve
rétablie. L’introduction du champ de Higgs était une façon
élégante de préserver la symétrie à haute énergie tout en
expliquant la brisure de la symétrie à basse énergie.
Qui dit champ, dit boson
Mais si un champ électrofaible existe, il doit exister,
selon le principe de la dualité onde-particule, une par-
ticule porteuse du champ. Cette particule putative a été
dénommée « boson de Higgs » et c’est sur ce boson que
s’est concentrée la recherche scientifique pour étayer
l’hypothèse du mécanisme de Higgs.
L’enjeu était essentiel. Il fallait comme indiqué ci-des-
sus valider le modèle standard en expliquant la brisure de
symétrie observée dans l’interaction électrofaible dans
le domaine des basses énergies. Mais le mécanisme de
Higgs va beaucoup plus loin. Il conduit en effet à considé-
rer la masse inertielle des bosons intermédiaires et plus
généralement de toute particule, non pas comme une
2 En fait mécanisme de Brout-Englert-Higgs-Hagen-Guralnik-Kibble pour mentionner tous ceux qui à la même époque et de façon indépendante ont émis la même théorie.
Figure 1a.
Figure 1b.
Figure 1c.
Figure 1d.
Source : CERN pour le compte de David Miller http://www.hep.ucl.ac.uk/~djm/higgsa.html
REE N°4/2012 ◗ 21
L'articLe invité
Introduction
I l n’est plus d’étude sur les réseaux de distribution où
l’on ne parle de « smart grids » ou de « smart me-
ters ». Certains s’interrogent toujours sur la réalité du
concept entre l’effet de mode et la vraie révolution
en matière de réseaux de distribution. Mais dans tous les
cas, les smart grids sont une réalité dont on peut considérer
qu’elle va renouveler la vision systémique du réseau.
En effet, au moment où de nouveaux besoins émergent
tant en termes de politique énergétique que de services au
client final, l’offre technologique progresse rapidement et la
rencontre de ces deux approches permet de définir ce nou-
veau concept de smart grids. Cela constitue une opportunité
de modernisation pour tous les opérateurs de réseau confron-
tés à des programmes de renouvellement ou de renforcement
d’infrastructures importants. Les smart grids ouvrent égale-
ment la porte à l’élaboration de nouveaux business models du
fait d’un nouvel équilibre possible entre acteurs.
Mais l’ampleur de l’évolution dessinée pose de nouvelles
questions. L’une d’elles, non la moindre, est celle de l’impact
sur les travaux de normalisation.
Le concept de smart grids
Le terme n’est pas explicite en lui-même ; beaucoup ont
placé sous ce vocable un contenu sans s’assurer qu’il était
partagé par tous les acteurs.
La Commission européenne a bien ressenti ce besoin et
avant de savoir s’il y avait lieu à légiférer en matière de dé-
veloppement de smart grids, a souhaité homogénéiser la vi-
sion européenne du sujet. C’est la raison de la création d’une
« task force smart grids » en 2010 sous l’égide de la Direction
Générale Energie. L’objectif de cette structure était d’étudier
les éléments relevant de la technique, de la régulation et des
échanges commerciaux sur les smart grids afin de préparer
leur déploiement dans le cadre du troisième paquet énergie,
considérant que les smart grids constituaient l’un des outils
importants de l’atteinte des objectifs énergétiques affichés.
Les mots-clés mis en avant étaient : efficacité, performance
économique, bénéfice pour le consommateur, services. Cet-
te démarche a complété les initiatives antérieurement prises
par la Direction Générale Recherche en vue de favoriser les
expérimentations de techniques ou de services engagées par
les opérateurs.
Il est essentiel de bien distinguer le concept de « smart
grids » des autres concepts tels que « smart city » ou « smart
home ». Les smart grids sont d’abord un réseau électrique,
allant du moyen de production au compteur du consomma-
teur, mais qui s’insère dans un cadre plus vaste de « smart
system » dans lequel diverses briques seront assemblées. Un
des objectifs recherchés est bien sûr de dessiner cette brique
de façon qu’elle s’assemble facilement avec les autres en ap-
portant les services que l’on peut attendre de sa fonction.
Pour mener à bien ce travail, trois structures de travail ont
été créées, centrées sur trois questions-clés :
• Quels sont les fonctionnalités et les services que doivent of-
frir a minima les smart grids aux clients européens et quelle
coordination faut-il assurer avec les actions engagées en
matière de smart meters ?
• Quelles recommandations convient-il de formuler pour ga-
rantir la sécurité des données et la protection du consom-
mateur ?
• Comment se répartissent les rôles et les responsabilités des
acteurs impliqués dans le déploiement des smart grids et
notamment comment organiser leur financement et quel im-
pact auront-ils sur les mécanismes de régulation en place ?
A l’issue du travail du premier groupe qui a réuni des ex-
perts de tous horizons, six services de haut niveau ont été
identifiés (figure 2) :
1. Intégration de nouvelles exigences dans l’accès au ré-
seau : on trouve ici les questions liées à la production
décentralisée de petite comme de grande taille, intégrant
son caractère aléatoire, mais aussi au raccordement des
utilisateurs nouveaux du réseau tels que les véhicules
électriques ou les équipements de stockage de l’énergie.
2. Amélioration de l’efficacité opérationnelle : les systè-
mes de surveillance, de pilotage, de localisation de défaut
améliorent la qualité de service et le coût de la gestion du
réseau. La connaissance des flux va améliorer la gestion
des pertes, l’optimisation de la maintenance.
3. Sécurité et qualité de service : l’acquisition en temps réel
d’informations sur le fonctionnement du réseau permet
d’améliorer le suivi de la production intermittente, la ges-
tion de la réserve primaire, le contrôle du niveau de ten-
sion distribuée. La sécurité du système face aux attaques
de tous ordres en sera renforcée. L’action sur la demande
Smart grids et normalisation
L'articLe invité aLain DOULet COLLECTION
LES MONOGRAPHIES SEE/CNRS ÉDITIONS
Sous la direction de L’IGA Jacques Roujansky LA SÉCURITÉ GLOBALE - RÉALITÉ, ENJEUX, ET PERSPECTIVES
A retourner à la SEE - 17 rue de l’Amiral Hamelin - 75783 Paris cedex 16 - France - Fax : 33 (0)1 5690 3719
❑ Je commande la monographie (parue en 2009) : “La sécurité globale - Réalité, enjeux, et perspectives” pour la somme de 35 TTC (valable en France) + participation aux frais de port : 5
Nom : .........................................................................................................Prénom : .....................................................................................................Adresse : .........................................................................................................................................................................................................................Code postal Ville : ..............................................................Pays : .........................................................................................................e-mail : .......................................................................................................
❑ Je désire recevoir une facture au nom de mon employeur pour paiement à réception
Raison sociale et adresse : ..................................................................................
............................................................................................................................
Code postal Ville : .....................................................................
Pays : ................................. VAT : ......................................................................
Conformément à la Loi Informatique et Libertés du 06/01/1978, vous disposez d�un droit d�accès et de rectification aux informations qui vous concernent. Contacter le Service Abonnements de la SEE
Je règle la somme de : ........................... par ❑ chèque à l’ordre de la SEE ❑ Prélevement bancaire (Joindre un RIB)
❑ Carte bancaire (Visa, Eurocard/Mastercard, American Express) N˚ Carte Date d’expiration N° Cryptogramme
Noter les 3 derniers N° au dos de votre carte
(obligatoire)
Date, signature et cachet :
BON DE COMMANDE✂
R éseaux du crime et de la drogue, danger terroriste, armes biologiques, pira-
tage des marchés publics, attaques des systèmes informatiques : face au chaos mondial né de l’après 11 septembre, de plus en plus d’Etats parient sur le concept de la sécurité globale pour répondre aux bouleversements du XXIe siècle.
Comment assurer aux collectivi-tés nationales un niveau suffisant de prévention et de protection contre ces nouvelles menaces qui profitent de la mondialisation ? Comment déceler, surveiller, réa-gir ? A ces questions d’une exceptionnelle gravité, com-ment apporter des réponses globales sans restreindre la liberté ni entamer le droit à la vie privée ?
Réunissant les meilleurs spécialistes du sujet, cet ouvrage propose une vision pionnière de la sécurité globale pour les prochaines décennies. Un panorama sans équivalent, illustré de situations concrètes, qui an-ticipe les crises du troisième millénaire.
L’Ingénieur Général de l’Armement Jacques Roujansky est Architecte Protection Sauvegarde à la Déléga-tion Générale pour l’Armement, et Président du Club Sécurité Globale de la SEE.
■ Entre science et vie sociétale : les éléments du futur
Société de l’Electricité, de l’Electronique et des Technologies de l’Information et de la Communication, la SEE célèbre ses cinq quarts de siècles passés au service du progrès scientifique et technique pour ac-compagner les grands enjeux sociétaux de son histoire. Afin de conforter cet évènement, une collection de monographies scienti- fiques thématiques est éditée en par-tenariat entre la SEE et CNRS Editions. Il s’agit d’un travail collectif réalisé au sein des clubs techniques de la SEE, dont les premiers ouvrages introduisent
quatre grands domaines représentatifs du périmètre considéré : • la sécurité globale,• le traitement de l’information et l’ingénierie des systèmes
complexes• la microélectronique • l’énergie. Cette collection a pour ambition d’apporter un éclairage di-dactique sur l’évolution de thématiques scientifiques majeures pour notre société, d’en cerner les perspectives et les enjeux, et surtout de proposer des voies privilégiées pour leur dévelop-pement.Elle est conçue pour accompagner les réflexions de toute per-sonne concernée par les avenirs possibles.
22 ◗ REE N°4/2012
L'articLe invité
Figure 1 : Concept de smart-grid.
Figure 2 : Smart grids – Articulation entre réseaux et services – Source : EU Commission Task Force for Smart Grids – Expert group 1 – Décembre 2010.
REE N°4/2012 ◗ 29
LES GRANDS DOSSIERSIntroduction
Inventée en 1879 par Joseph Swan et amélio-
rée par les travaux de Thomas Edison, la lampe
à incandescence fut l'une des vedettes de l'ex-
position internationale de l'électricité de 1881 à
Paris. Elle apportait une solution simple et fiable
au problème essentiel de l'éclairage domestique.
Des lampes adaptées à chaque usage, qui peu-
vent fonctionner pendant plusieurs centaines
d'heures, que l'on allume ou que l'on éteint en
actionnant un simple commutateur, qui utilisent
des tensions relativement basses... que rêver de
mieux. La lampe à incandescence représentait
un tel progrès par rapport aux systèmes dont l'humanité avait
dû se contenter pendant des siècles, qu'il semblait inimagina-
ble que l'on pût un jour s'en passer. Par métonymie, le flux lu-
mineux était assimilé à la puissance électrique de l'ampoule
et une lampe de 100 W, dans les foyers d'après guerre, était
le synonyme de l'aisance et du confort.
Pendant plus de 100 ans, le monde reposa donc sur la
lampe à incandescence jusqu'au jour où l'on réalisa qu'elle
était vraiment trop dispendieuse en énergie, avec un rende-
ment lumineux qui, exprimé en % de la valeur maximale pos-
sible, n'excédait pas 2 %. Pendant plus de trois décennies,
les développements technologiques ont hésité sur la voie qui
pourrait un jour conduire à un éclairage de qualité beaucoup
plus économe en énergie. Les préoccupations de lutte contre
la dérive climatique sont venues stimuler cette recherche,
mais la solution tardait.
Les lampes à incandescence halogènes, inventées en
1959 chez General Electric, ont connu un immense succès
commercial. A leur arrivée sur le marché, elles symbolisaient
l'entrée dans le monde de la high tech mais, malgré l'amé-
lioration du rendement que permettait l'accroissement de la
température du filament, elles ne modifiaient pas fondamen-
talement la donne en termes d'efficacité lumineuse.
Puis sont venues les lampes fluorescentes, ou fluocom-
pactes, adaptation d'allure étrange des tubes industriels ou
tertiaires aux besoins de l'éclairage domestique. En première
analyse, cette technologie permet de réaliser des économies
d'électricité très substantielles, avec des effica-
cités lumineuses qui peuvent atteindre dans
les applications domestiques 65 lm/W contre
25 lm/W pour de bonnes lampes à incandes-
cence. Les pouvoirs publics ont pris appui sur
cette technologie pour encourager l'usage des
lampes à basse consommation afin de réduire
les consommations d'électricité liées à l'éclairage
qui représentent encore à peu près 14 % de la
consommation d'électricité totale des ménages.
Au niveau européen, le risque a été pris d'inter-
dire progressivement à partir de la mi-2009 la
commercialisation des lampes à incandescence et, depuis
le 1er septembre 2012, ce sont toutes les ampoules à incan-
descence qui sont concernées par l’interdiction de mise sur
le marché.
Mais les lampes fluorescentes n'ont jamais conquis l'amour
du public : disgracieuses, chères, à la lumière blafarde, dif-
ficilement « gradables », elles souffrent encore aujourd'hui
du syndrome congénital de la durée d'allumage qui fait que
lorsqu'on entre dans une pièce la lumière commence à avoir
atteint un niveau satisfaisant au moment où l'on en sort. Qui
plus est, beaucoup sont venus souligner les risques liés au
mercure que fait encourir un recyclage insuffisant des am-
poules usagées.
Dans ce contexte, l'émergence de l'éclairage par LED tient
un peu du miracle. Tout n'est pas encore parfait mais la LED
de puissance s'affirme comme un composant extraordinai-
rement efficace, avec un rendement lumineux pouvant dé-
passer 100 lm/W, une durée de vie très longue (25 000 h),
un allumage instantané, une « gradabilité » aisée, un réglage
d'ambiance possible grâce à des températures de couleur
s'étalant dans une plage étendue, etc.
Le lecteur prendra plaisir à découvrir la saga de l'éclairage
que résume très bien l'article sur « la révolution technologique
de l'éclairage » de Christophe Cachoncinlle et Georges Zissis.
Il pourra approfondir la compréhension du phénomène LED
et de son cousin OLED en lisant l'article sur les applications
des OLEDs de Marc Ternisien, David Buso, Georges Zissis et
L'éclairage : un remarquable saut technologique
Jean-Pierre HauetAssociate Partner KB IntelligenceMembre Emérite
de la SEE
30 ◗ REE N°4/2012
LES GRANDS DOSSIERS Introduction
Sounil Bhoslé. Enfin, les problèmes de santé publique sont
abordés dans le troisième article de ce dossier, rédigé par
Sébastien Point, sur l'impact sur l'environnement et la santé
des technologies nouvelles de l'éclairage.
Cette percée des technologies nouvelles appellent plu-
sieurs commentaires d'ordre général.
D'une part, elle montre qu'il ne faut jamais désespérer de
faire progresser un domaine même s'il est resté pendant de
nombreuses décennies dépendant d'une technologie qu'on
croyait installée pour l'éternité. Quand l'innovation survient,
qu'elle est validée sur le plan industriel, qu'elle rencontre la
faveur du public, l'explosion peut être vertigineuse. On l'a vu
avec les écrans plats. On le voit aujourd'hui
avec les techniques de l'éclairage. On le ver-
ra peut-être demain avec les batteries, les
véhicules électriques, les moyens de calcul
hyperpuissants et économes en énergie, les
transformateurs électroniques de grande
puissance, etc. Au-tant de raisons de croire
que le jeu industriel n'est jamais complète-
ment perdu et que des occasions peuvent
surgir qu'il faut savoir saisir.
Il faut d'autre part considérer que le suc-
cès des technologiques nouvelles de l'éclai-
rage est lié bien sûr à leurs performances
énergétiques mais aussi au fait qu'elles per-
mettent de réaliser un éclairage de qualité,
d'améliorer le confort, de concevoir des for-
mes totalement nouvelles de luminaires...
L'économie d'énergie est une notion froide
qui évoque l'abstinence et la pénurie. Elle
a infiniment plus de chances de s'imposer
si elle s'accompagne d'une amélioration du
service rendu. Le cas d'école des lampes
fluorescentes versus les LEDs et OLEDs en
est l'illustration patente. La leçon ne doit pas en être oubliée
lorsqu'on discute du véhicule électrique et de l'avenir de l'in-
dustrie automobile. Les véhicules tout électriques ou hybrides
auront du mal à s'imposer si leur seul attrait est l'économie
de pétrole, quelles que soient les aides publiques. Les expé-
riences du type Autolib, la mise sur le marché de véhicules
étranges du type Twizy, qui apportent de la commodité et du
« fun », sont autant de tentatives à encourager.
Enfin et ce n'est pas la moindre des choses, l'aventure de
l'éclairage vient battre en brèche les thèmes chers à certains
selon lesquels il serait temps de passer à un autre type de
croissance, à une croissance sobre assise sur de nouvelles va-
leurs... L'utilisation ménagère de nos ressour-
ces est à coup sûr un impératif et l'exemple
de l'éclairage montre qu'il est possible de
mieux utiliser l'énergie. Mais les technologies
nouvelles de l'éclairage ne constituent en
aucune façon un frein dans l'expression du
besoin. Elles sont simplement un moyen de
le satisfaire de façon plus efficace et avec un
service rendu meilleur. Elles viennent même
en soutien des comportements en nous
libérant de toute hésitation pour la fermeture
de l'éclairage en quittant une pièce, sachant
que l'on pourra sans délai et quasiment in-
définiment le rétablir lorsqu'on en aura de
nouveau besoin.
Energie, croissance et bien-être sont
indissociablement liés. L'énergie est néces-
saire à la croissance et le bien-être a besoin
de croissance et d'énergie. Le défi n'est
pas de renoncer à l'un ou l'autre mais de
concilier le tout dans une approche de dé-
veloppement durable. Les nouvelles tech-
nologies de l'éclairage sont là pour nous
conforter dans cette voie. ■
Jean-Pierre HAUET est ancien
élève de l’Ecole Polytechnique
et Ingénieur du corps des mines.
Il a occupé différentes positions
dans l’Administration, en particu-
lier celle de rapporteur général
de la Commission de l’Energie
du Plan. Il a dirigé le centre
de recherches de Marcoussis
d’Alcatel avant d’être nommé
directeur Produits et Techniques
de Cégélec puis Chief Technology
Officer d’ALSTOM. Depuis 2003,
il est Associate Partner de KB Intel-
ligence, spécialisé dans les ques-
tions d’énergie, d’automatismes
industriels et de développement
durable. Il préside l’ISA-France,
section française de l’ISA (Instru-
mentation, Systems & Automation
Society). Il est membre émérite
de la SEE et membre du comité
de publication de la REE.
La révolution technologique de l’éclairageChristophe Cachoncinlle, Georges Zissis ...................................................................................................................... p. 31Evolutions et perspectives de l’éclairage. Applications des OLEDsMarc Ternisien, David Buso, Georges Zissis et Sounil Bhoslé .............................................................................. p. 42Les technologies nouvelles de l’éclairage : leur impact sur l’environnement et la santéSebastien Point ........................................................................................................................................................................ p. 48
les articles
REE N°4/2012 ◗ 31
L'écLairage
Christophe Cachoncinlle GREMI, UMR-7344 CNRS/Université d’Orléans Georges Zissis LAPLACE, UMR-5213, UPS-INPT-CNRS, Université de Toulouse
IntroductionPlus que dans une simple évolution technologique,
le monde de l’éclairage est engagé depuis quelques
années dans une véritable révolution. Depuis l’appa-
rition sur le marché au siècle dernier de la technolo-
gie à fluorescence, nos « tubes fluorescents » et leurs
miniaturisations en diverses lampes dites « lampes
fluorescentes compactes (LFC) », seule l’arrivée des
lampes à décharge à forte intensité avait bousculé un
peu le marché, au moins celui des lampes profession-
nelles. Aujourd’hui, les acteurs du secteur de l’éclaira-
ge sont confrontés à un bouleversement du marché,
drainé par une demande de plus en plus forte vers un
type d’éclairage « très tendance » : l’éclairage à LEDs.
Celui-ci est supposé peu énergivore, d’une flexibilité
inégalée et d’une qualité de lumière qui tiendrait du
magique au regard des commentaires de ses aficio-
nados (figure 1).
Mais, pour la communauté scientifique, qu’en est-il
exactement ? Quelles sont aujourd’hui les meilleures
solutions d’éclairage disponibles sur le marché ? Nous
allons présenter une revue de ces technologies et en
peser les avantages et les inconvénients. Bien sûr,
aucune technologie n’est une panacée, mais certaines
d’entre elles sont plus adaptées à certaines applica-
tions que telles autres. Nous allons d’abord présenter
la technologie d’émission de lumière à partir de l’état
solide de la matière : ce sont les LEDs (Light Emit-
ting Diodes en anglais) et les OLEDs (Organic Light
Emiting Diodes). Puis nous aborderons la très grande
famille des technologies basées sur l’état plasma de
la matière, c’est-à-dire les lampes fluorescentes, tubes
fluorescents et lampes fluorescentes compactes, ainsi
que les lampes à décharge beaucoup utilisées en
éclairage public. Enfin nous finirons par la technolo-
gie basée sur le rayonnement thermique, technologie
énergivore et donc en phase finale de bannissement
de nos rayons : les lampes à incandescence, ampou-
les classiques et ampoules halogènes.
L’obligation faite au travers de diverses réglementa-
tions [1] de satisfaire aux baisses de la consommation
d’énergie, impose au secteur du bâtiment de tirer le
meilleur parti des sciences et des techniques pour,
La révolution technologique de l’éclairage
We present here a review of the various technologies available on the market lighting where, in recent years, new products have been constantly emerging: LEDs and OLEDs complement the wide range of discharge lamps (fluorescent tubes, compact fluorescent lamps, high pressure sodium lamps, metal halide lamps ...). Can they really replace our old incandescent bulbs? We give the main selection criteria: flux, luminous efficacy, color rendering index, color temperature ..., and we examine objectively the advantages and disadvantages of each technology in this market. Are these new lamps better than the old ones? Do they actually consume less energy? Often the answer is “yes”. Anyway, the latest technologies are often the most economical in terms of energy. But one must know how to choose the right lamp for the right application.
abstract
Figure 1 : Lampes à LEDs de substitution pour l’éclairage domestique. Culot E27.
Source : Philipslighting. Wikipedia.
32 ◗ REE N°4/2012
L'écLairage La révolution technologique de l’éclairage
d’une part profiter au maximum de l’apport de la lumière du
jour, d’autre part choisir les appareillages les plus performants
en termes d’efficacité énergétique. En aucun cas la qualité de
l’éclairage, le niveau d’éclairement et le confort visuel ne doi-
vent être sacrifiés sur l’autel du Grenelle de l’environnement !
Venant du grand public, la sentence est sans appel : il est
à présent difficile de s’y retrouver dans le simple choix d’une
ampoule pour sa maison. Les technologies sont trop diver-
ses et les critères techniques peu clairs : expliquer que les
ambiances lumineuses les plus chaudes sont produites par
les températures les plus froides relève du paradoxe. Les pro-
fessionnels font leur maximum pour diffuser une information
simple sur des produits d’une technicité toujours plus avan-
cée. Mais le nombre de pictogrammes explose littéralement
sur les emballages.
Pour bien choisir, il faut se concentrer sur cinq principaux
critères : le flux lumineux, l’efficacité énergétique, la tempé-
rature de couleur, l’indice de rendu des couleurs et le type
de culot.
Le flux est exprimé en lumen (symbole lm). Il traduit la
puissance lumineuse de la lampe : de quelques lumens pour
une veilleuse de nuit à 100 000 lm pour une lampe de pro-
jecteur de stade ; typiquement ces flux vont de quelques
centaines de lumens, particularité des vielles ampoules à in-
candescence, à quelques milliers de lumens pour nos tubes
fluorescents d’intérieur. La quantité de lumière émise est le
critère de plus important à prendre en compte pour l’achat
d’une lampe1, car c’est elle qui nous assurera d’obtenir l’éclai-
rement voulu.
L’efficacité lumineuse est le rapport entre l’énergie con-
sommée par seconde et la quantité de lumière visible pro-
duite. Elle s’exprime en lumens par watt (symbole lm/W).
C’est un critère très important pour le choix. Les très vielles
ampoules à incandescence avaient des efficacités lumineu-
ses qui étaient de l’ordre de 12 lm/W : C’est presque 10 fois
plus énergivore que les bons tubes fluorescents actuels qui
peuvent atteindre 120 lm/W ! Les lampes trop énergivores,
comme les lampes à incandescence, ne peuvent plus être
mises sur le marché européen, un calendrier de retrait pro-
gressif est en cours d’exécution. Avec l’arrivée des LEDS, il
sera possible, dans l’avenir, de n’avoir que des sources lu-
mineuses de plus de 100 lm/W. Si le consommateur a bien
accès à la valeur du flux lumineux qui est porté obligatoire-
ment sur l’emballage, il est par contre privé du chiffre corres-
pondant à l’efficacité de sa lampe. Nos organismes (Directive
1 La génération des nos grands parents achetait des lampes en fonction du nombre des candelas (intensité), notre génération regarde plutôt la puissance en watt ; la nouvelle génération doit apprendre à regarder le flux en lumens.
européenne 98/11/CE) ont jugé plus clair de substituer une
lettre témoignant d’une classe d’efficacité énergétique (de
A à G) plutôt que la simple valeur d’efficacité en lm/W, cela
par souci d’homogénéité avec les appareils électriques. La
classe A représente les appareils les plus économes de leur
catégorie (cependant des classes A+ et A++ commencent à
apparaître sur le marché).
La température de couleur des sources de lumière est
certainement le plus ésotérique des critères. Ce chiffre, ex-
primé en kelvins (symbole K), nous renseigne sur le ton plus
ou moins bleuté ou orangé de la lumière blanche produite
par la lampe. En dessous de 3 500 K, la lumière blanche « tire
vers le jaune-orangé » on parle alors de lumière « chaude »,
car cela rappelle l’ambiance d’un bon feu de bois. Au dessus
de 5 000 K, la lumière blanche devient bleutée et on parle
de lumière « froide », elle rappelle la couleur des étendues
glacées. La machine humaine est programmée pour accepter
ces diverses variations de tonalités colorées pendant la jour-
née car la lumière naturelle du jour varie harmonieusement
du matin au soir, d’une lumière froide à une lumière chaude,
et règle le cycle circadien de notre horloge hormonale. Aussi
l’homme a appris au cours de l’évolution à mettre ses sens
en éveil au moindre reflet de la lumière froide et consent à se
laisser sombrer dans les bras de Morphée à la douce lumière
orangée du soir. Ne soyons pas étonnés que les éclairages
fonctionnels des bureaux et salles de classes soient quelque
peu froids et uniformes : c’est la lumière ad hoc pour met-
tre les gens au travail ! Par contre au domicile, on préfère
une ambiance plus reposante baignée de lumière chaude et
inhomogène (jeu d’ombres et de lumières). Il n’y a pas de
bonnes ou de mauvaises températures de couleur, tout est
question d’adéquation du choix de l’ambiance à créer avec la
vocation du local à éclairer.
Qualité souhaitéeValeur
minimale de l’IRC
Exemples d’applications industrielles
Excellent rendu des couleurs
IRC > 90Laboratoire, imprimerie, vente des fruits/légumes/fleurs...
Rendu des couleurs de bonne qualité
IRC > 80 Bureaux, magasin, atelier...
Rendu des couleurs médiocre
IRC > 60Industrie mécanique, et électrique.
Aucune exigence IRC < 60Fonderie, grosse mécanique, couloirs, parkings, éclairage de sécurité...
Tableau 1 : Indice de rendu des couleurs : Valeurs minimales recommandées.
Source initiale : Association française de l’éclairage.
REE N°4/2012 ◗ 55
LES GRANDS DOSSIERSIntroduction
Depuis le milieu des années 1980, la physique atomique con-naît des développements spec-taculaires. Grâce à une meilleure connaissance et une maîtrise crois-sante des interactions entre les photons et les atomes, il est pos-sible de refroidir de petits nuages d’atomes à des températures de quelques milliardièmes de degrés seulement au-dessus du zéro ab-solu (– 273,15 °C) et de les piéger dans le vide. Ces méthodes ont fait l’objet du prix Nobel de physique de 1997 qui a récompensé Claude Cohen-Tannoudji, Steven Chu et Williams Phillips.
De ces travaux sur le refroidissement laser ont dé-coulé d’autres découvertes tout aussi spectaculaires, en particulier la mise en évidence expérimentale en 1995 de la condensation de Bose Einstein. Ce nouvel état de la matière aux propriétés exceptionnelles avait été prévu depuis les années 1920 par les lois de la physique sta-tistique. En 2001, Eric A. Cornell, Wolfgang Ketterle et Carl E. Wieman ont obtenu le prix Nobel pour cette dé-couverte.
En trente ans, ce domaine de la physique s’est consi-dérablement développé. En France, les recherches sur les atomes froids ont été initiées par l’équipe de Claude Cohen-Tannoudji du Laboratoire Kastler Brossel de l’École normale supérieure. Cette thématique s’est ensuite pro-gressivement développée en France, d’abord en région parisienne, puis dans le reste du pays, souvent par es-saimage de jeunes équipes à partir de la branche pari-sienne. La communauté des atomes implique maintenant plusieurs centaines de chercheurs en France et elle est très nombreuse dans tous les pays développés.
L’intérêt de toutes ces recherches n’est pas seulement de battre des records de froid mais de pouvoir contrôler et manipuler la matière pour l’amener dans des condi-tions expérimentales jusque-là inaccessibles. Les propriétés quantiques de la matière, telles que la dualité onde-corpus-cule ou la condensation de Bose-Einstein, ont enfin pu être directement étudiées dans les laboratoires de recher-
che. Leurs applications sont égale-ment très prometteuses et ce sont celles-ci surtout que nous voulons vous présenter dans ce dossier.
Le premier article expose les fondements du refroidissement atomique. Ce bref panorama expli-que comment les lasers peuvent ralentir et donc refroidir un nuage d’atomes. Cet article explique aussi les difficultés techniques du refroi-
dissement, notamment sur le système laser dont il faut pouvoir contrôler la longueur d’onde avec une précision relative de quelques milliardièmes.
Ces techniques sont maintenant de mieux en mieux maîtrisées et permettent d’envisager l’industrialisation d’instruments basés sur des atomes froids. Les auteurs du second article de ce dossier, Arnaud Landragin et Phi-lippe Bouyer ont fondé avec Bruno Desruelle la société µQuanS, qui commercialise des horloges et des gravimè-tres basés sur des atomes froids. Ils présentent dans leur article l’utilisation des atomes froids pour la réalisation de capteurs inertiels et leurs applications tant pour la naviga-tion dans l’espace que pour la géophysique et des tests de physique fondamentale.
Dans le troisième article, nous verrons enfin l’apport des atomes froids aux recherches sur la matière conden-sée. Ces recherches font usage d’atomes piégés dans des réseaux optiques qui sont utilisés comme modèles repré-sentatifs des matériaux solides. Des problèmes de mécani-que quantique parfois complexes auxquels les chercheurs sont confrontés en physique du solide (tels que la supra-conductivité haute température), peuvent maintenant être modélisés avec des atomes froids, systèmes sur lesquels les chercheurs ont une maîtrise beaucoup plus grande. Une telle approche va-t-elle aider à résoudre les problè-mes que se posent des ingénieurs électriciens ou électro-niciens ? Seul l’avenir nous le dira !
Post-scriptumA l’heure où nous bouclons ce dossier « atomes froids »,
nous apprenons que le prix Nobel 2012 de physique a été
Les atomes froids
Michèle LeducDirectrice de l'Institut
Francilien de Recherche sur les Atomes Froids
Présidente de la Société Française de Sociétés
Scientifiques
Pierre CladéCNRS,
Laboratoire Kastler Brossel
56 ◗ REE N°4/2012
LES GRANDS DOSSIERS Introduction
décerné conjointement à David Wineland et Serge Haro-che. David Wineland fut le premier, en 1978, à mettre en œuvre les techniques de re-froidissement laser en utilisant des ions, bien avant qu’elles ne soient utilisées sur des atomes neutres. Serge Haroche, cher-cheur au Laboratoire Kastler Brossel, est un spécialiste de l’interaction matière-rayonne-
ment. Au lieu de chercher à manipuler des atomes avec la lumière, comme pour le refroidissement laser, il manipule
des photons avec des atomes. C’est ainsi qu’il a pu étudier un par un des photons piégés dans une cavité. Pour cela, il en-voie dans la cavité des atomes de rubidium préparés avec les techniques de refroidissement laser. ■
Michèle Leduc. Docteur en sciences physiques,
Michèle Leduc a effectué presque toute sa carrière dans
le Laboratoire Kastler Brossel (LKB) de l’Ecole normale
supérieure, d’abord en étudiant les propriétés de l’hé-
lium, puis en abordant le domaine des fluides quanti-
ques polarisés à basse température. Depuis 1993, elle se
consacre au domaine des atomes ultrafroids d’hélium
4 métastable et est actuellement directrice de l’Institut
Francilien de Recherche sur les Atomes Froids (IFRAF).
Présidente de la Fédération Française de Sociétés Scien-
tifiques, Michèle Leduc est également constamment
engagée en faveur des femmes dans la recherche avec
l’association « Femmes et sciences » dont elle est mem-
bre fondateur.
Pierre Cladé. Ancien élève de l’École normale su-
périeure de Paris, Pierre Cladé a effectué sa thèse dans
l’équipe « Métrologie des systèmes simples et tests fon-
damentaux » du Laboratoire Kastler Brossel (LKB). Après
deux années de post-doctorat dans le groupe de W.D.
Phillips aux États-Unis, il a rejoint en 2007, en tant que
chargé de recherche au CNRS, l’équipe du LKB où il a
effectué sa thèse. Il poursuit depuis ses travaux sur la me-
sure de haute précision de la vitesse du recul d’un atome
et la détermination de la constante de structure fine.
Comment refroidir les atomes froids avec la lumière laser ? Principes et techniquesPar Saïda Guellati-Khelifa, Pierre Cladé ................................................................................................................................ p. 57Senseurs d’inertie à ondes de matières - Des appareils de précision pour la navigation, la géophysique et les tests spatiauxPar Philippe Bouyer, Arnaud Landragin ................................................................................................................................. p. 67Atomes froids et physique du solidePar Frédéric Chévy, Xavier Leyronas, Laurent Sanchez-Palencia ................................................................................... p. 71
les articles
REE N°4/2012 ◗ 57
les atomes froids
Saïda Guellati-Khelifa (1,2) Pierre Cladé (1) (1) Laboratoire Kastler Brossel, Ecole normale supérieure, Université Pierre et Marie Curie (2) Conservatoire national des arts et métiers
Refroidir des atomes sans créer un solide
La physique atomique est née au XXe de l’étude
du spectre des gaz atomiques. C’est en observant
l’émission ou l’absorption de la lumière par un gaz que
l’on a compris la structure atomique et ensuite élaboré
les premières théories de la mécanique quantique. Le
fait que les atomes soient en phase gazeuse est impor-
tant car dans cet état ils sont quasiment isolés les uns
des autres et peuvent donc être compris individuelle-
ment. Cependant, dans un gaz, l’agitation thermique
pose problème. A température ambiante, la vitesse ty-
pique d’un atome peut atteindre 1 km/s. L’observation
d’un même atome est donc limitée dans la durée ce
qui limite la précision sur les mesures. De plus, il n’est
pas possible d’utiliser les techniques de cryogénie car à
faible température tous les corps sont en phase solide
ou liquide. C’est pour répondre à ce problème, ralentir
des atomes tout en les maintenant en phase gazeuse,
que sont nées les techniques de refroidissement laser.
Le refroidissement atomique a un intérêt au-delà
du simple ralentissement des atomes. En effet à très
faible température, il est possible d’observer la nature
ondulatoire de la matière. On peut le comprendre à
partir du principe d’Heisenberg qui nous dit qu’il n’est
pas possible qu’une particule ait une position et une
vitesse bien déterminées simultanément. Lorsque l’on
refroidit un gaz d’atome, la vitesse de chaque atome
tend vers zéro. L’atome ne peut alors plus être localisé
en un point et son extension spatiale (l’onde atomi-
que) augmente. Cette nature ondulatoire va pouvoir
s’observer lorsque la taille de l’onde sera de l’ordre du
micromètre (longueur d’onde lumineuse). L’atome se
comporte alors comme une onde : on peut par exem-
ple le diffracter ou faire des interférences. Un autre
phénomène étrange apparaît lorsque l’extension spa-
tiale des atomes devient beaucoup plus grande que
leur séparation : alors que le gaz est très dilué, que
les forces d’interaction entre atomes sont très faibles,
les interférences entre atomes vont modifier la nature
de la matière. On observe selon la nature des atomes
un condensat de Bose Einstein ou un gaz de Fermi
dégénéré.
Pour refroidir ces atomes, tout en les maintenant
dans une phase gazeuse, plusieurs techniques exis-
tent. Nous décrirons dans cet article le refroidisse-
ment laser et le refroidissement par évaporation. Ces
deux techniques permettent d’atteindre des tempéra-
tures de l’ordre du nanokelvin - température pour la-
quelle l’agitation thermique correspond à des vitesses
de l’ordre du mm/s. Ces températures sont atteintes
Comment refroidir les atomes froids avec la lumière laser ? Principes et techniques
This article is devoted to the description of various mechanisms of the laser cooling of neutral atoms. These mechanisms are all based on the interaction between a photon, an entity of light, and an atom, an entity of matter. One of the macroscopic manifestations of this interaction is the pressure of radiation force. The effect of this force is strongly amplified when the source of photon is a laser. We will describe how it is possible to use this force with the Doppler effect in order to slow an atomic beam and also to reduce considerably the thermal agitation of atoms. We will explain how by shaping the light potentials and magnetic fields it is possible to reach extremely low temperatures of some nanokelvin. At these temperatures, very near to the absolute zero, it is possible for certain kind of atoms, called bosons, to achieve a new state of matter, where quantum behaviour of atoms became apparent on a macroscopic scale.
abstRact
58 ◗ REE N°4/2012
les atomes froids Comment refroidir les atomes froids avec la lumière laser ? Principes et techniques
pour un nuage d’au plus un milliard d’atomes dans un vo-
lume d’environ 1 mm3, protégé par une enceinte à vide.
Interaction atome-rayonnementDu point de vue de la mécanique quantique, l’énergie in-
terne de l’atome est quantifiée. L’échelle des niveaux d’éner-
gie dépend de la structure de l’atome : c’est une sorte de
carte génétique propre à chaque atome. Considérons deux
niveaux d’énergie : le niveau fondamental f et le niveau ex-
cité e. La différence d’énergie entre les deux niveaux peut
être exprimée en termes de fréquence, appelée fréquence
de résonance de la transition atomique νa. Quand l’atome est
éclairé par un faisceau laser de fréquence ν, le photon laser
a d'autant plus de chance d'être absorbé par l'atome que la
fréquence laser est proche de la fréquence atomique νa . On
dit que le laser est quasi-résonant lorsque le désaccord en
fréquence δ = ν a – ν est très faible comparé aux fréquences
caractéristiques du système (atome, laser).
La durée de vie de l’atome dans le niveau excité est limi-
tée ; il se désexcite vers le niveau fondamental par émission
spontanée d’un photon (photon de fluorescence). Comme
pour un oscillateur classique, la largeur de la résonance, est
inversement proportionnelle au temps d’amortissement.
Pour les transitions atomiques, la largeur de résonance est
définie par la largeur naturelle du niveau excité que l’on note
Γ. La durée de vie de l’atome dans ce niveau est égale à Γ-1.
Par ailleurs, le photon, « particule élémentaire de la lumière »,
est doté d’une impulsion (voir l’encadré 1). Lorsqu’il absorbe
un photon, l’atome encaisse son impulsion et recule d’une
vitesse qu’on note désormais νr. De même, quand l’atome
émet un photon spontanément, il restitue l’impulsion acqui-
se. Il faut noter ici un point crucial pour la suite, la direction
du recul induit par l’absorption du photon est bien définie,
par la direction du vecteur d’onde. En revanche le recul dû à
l’émission spontanée est totalement aléatoire.
Les forces de la lumière : force de pression de radiation
La force exercée par la lumière sur les atomes est à l’ori-
gine de tous les mécanismes de manipulation d’atomes par
laser. L’idée que la lumière puisse exercer une action méca-
nique sur la matière est vieille de plus de trois siècles. L’intui-
tion de Johannes Kepler fut juste, lorsqu’il expliqua pourquoi
la queue des comètes est orientée à l’opposé du soleil, par
la pression de radiation exercée par la lumière solaire sur les
particules de poussière qui constituent la queue. A l’échelle
atomique, cette force de pression de radiation se manifeste
par un changement de vitesse occasionné par le transfert de
l’impulsion du photon à l’atome. Comme nous l’avons men-
tionné précédemment, lorsqu’un atome absorbe un photon,
il change de niveau d’énergie et il recule. La vitesse de recul
varie selon la nature de l’atome, elle vaut 6 mm/s pour un
atome de rubidium. A priori, ce changement de vitesse est
très faible comparé à la vitesse moyenne des atomes dans
un gaz à température ambiante, qui est d’environ quelques
centaines de mètres par seconde. Pour que l’action de la
lumière sur l’atome soit appréciable, il faudrait lui transmet-
tre beaucoup de reculs en le faisant interagir « longtemps »
avec des photons se propageant dans la même direction. De
ce point-clé découle le rôle fondamental du faisceau laser
dans la manipulation du mouvement des atomes. Dans un
faisceau laser les photons possèdent quasiment la même
énergie et la même impulsion, c’est pour cette raison que
l’action mécanique du laser sur les atomes est spectaculaire.
Figure 1 : Comparaison entre les différentes échelles de températures.
Encadré 1 : Le laser et son photon.
REE N°4/2012 ◗ 81
retour sur ���������
Marc Leconte THALES SYSTEMES AEROPORTES
A l’occasion de l’attribution de la médaille Einstein à Alain Aspect
Le 12 mars dernier, on apprenait que la médaille
Albert Einstein avait été décernée à Alain Aspect. Ce
prix, attribué par la société Albert Einstein, basée à
Berne, valorise « des recherches exceptionnelles en
relation avec l’œuvre d'Albert Einstein ». Alain Aspect
est le deuxième français à se voir récompenser par ce
prix, le premier étant Thibault Damour qui l'a reçu en
1996 pour ses travaux sur la cosmogénèse et la rela-
tivité générale [9]. Cette médaille est ici décernée à
Alain Aspect « en reconnaissance de ses contributions
fondamentales à la physique quantique, en particu-
lier pour ses tests expérimentaux des inégalités de
Bell ». Menées au début des années 80, les expérien-
ces d'Alain Aspect ont permis de trancher un débat
datant de près de quatre-vingts ans, portant sur les
fondements philosophiques de la physique quanti-
que et opposant deux des plus grands physiciens du
vingtième siècle : Albert Einstein et Niels Bohr. Pour
bien comprendre les enjeux encore actuels de ce dé-
bat il faut revenir sur le développement de la physique
quantique.
Les pères fondateurs de la physique quantique Planck et Einstein
En 1900, Max Planck met au point une formule
qui s'appuie sur l'expérience pour le rayonnement
du corps noir, en utilisant la méthode de Boltzmann.
Cette formule pour la première fois rend compte cor-
rectement des données expérimentales, mais pour la
mettre au point il a fait l'hypothèse que l'énergie est
quantifiée en valeurs discrètes et a introduit une nou-
velle constante, h dite quantum d’action. Il ne croit
pas trop à cette quantification de l'énergie et la consi-
dère pour l'heure comme un artifice et les choses en
restent là. Quelques années plus tard, en 1905, un
autre physicien pas encore très célèbre, va reprendre
son hypothèse des quanta. En effet Albert Einstein,
dans l'un des cinq célèbres articles de l'année 1905
reprend l'hypothèse de Planck pour expliquer l'effet
photoélectrique et ses résultats.
Niels Bohr et la stabilité de l’atomeDans les années 1910, un autre problème préoc-
cupe les physiciens, il s'agit de la stabilité de l'atome
dont le seul modèle existant, l'atome de Rutherford,
décrit par les équations de la physique classique est
instable. A ce moment-là, l'atome etait considéré
comme un système solaire miniature constitué par
un noyau et des électrons en orbite. D'après les équa-
tions de la mécanique et les lois de l’électrodynami-
que de Lorentz, l’électron en orbite rayonne et perd de
l’énergie et doit donc inéluctablement s'écraser sur le
noyau. Le modèle est donc inadéquat. Niels Bohr pro-
pose en 1913 un nouveau modèle d'atome à partir du
modèle planétaire basé sur l'idée que les électrons ne
rayonnent pas s’ils ne changent pas d’orbites. L'élec-
tron peut changer d'orbite en absorbant ou émettant
une énergie multiple de la constante de Planck. Son
nouveau modèle d'atome permet d'expliquer pour la
première fois les spectres de raies de l'hydrogène, le
plus simple des corps jusqu'alors décrit de manière
empirique par la formule de Balmer.
La mécanique ondulatoireLa première tentative de concilier les aspects a
priori inconciliables entre l’onde classique et les par-
ticules, est celle formulée par Louis de Broglie dans
sa célèbre thèse de 1924. Elle a été lue et appréciée
par Einstein qui indique que « de Broglie a soulevé
un coin du grand voile ». Louis de Broglie propose
de généraliser à toutes les particules, la dualité onde
corpuscule mise en évidence pour la lumière notam-
Le paradoxe EPR
Figure 1 : Max Planck. Figure 2 : Albert Einstein.
82 ◗ REE N°4/2012
���������� retour sur
ment par Einstein. Il associe à chaque particule, une quantité
de mouvement et une fréquence. En 1926, Erwin Schrödin-
ger réussit à formuler une équation pour décrire cette onde
« corpusculaire ». Son équation devient vite l'une des équa-
tions fondamentales de la physique quantique. Elle permet
de comprendre le spectre de l'atome d'hydrogène et donne
d'importants résultats pour les autres atomes.
Vers l’indéterminisme : L’interprétation de Copenhague
Mais une théorie ondulatoire ne permet pas de tout expli-
quer, en particulier, lors de collisions entre particules, l'onde
de Schrödinger s'étale, alors que les particules prennent
des directions bien définies que l’on peut observer. Ces
constatations conduisirent les physiciens à abandonner la
voie purement ondulatoire. Max Born propose en 1926 une
nouvelle interprétation de l'onde de l'équation de Schrödin-
ger appelée dès lors fonction d'onde. Les collisions, et plus
généralement les processus quantiques, sont non déter-
ministes et la seule chose que l’on puisse préciser est un
ensemble de probabilités de résultats de mesure. Si plus
d'une particule est en jeu, l'onde devient un objet mathéma-
tique évoluant dans un espace de configuration. La fonction
d'onde n'est plus considérée comme une description phy-
sique du système mais comme un outil mathématique qui
fournit des probabilités de résultats possibles. La nouvelle
théorie est indéterministe, non objective et fixe des limites
de principe à la connaissance des objets microscopiques
et cela entraîne sur le plan conceptuel un changement de
paradigme par rapport à la physique classique. Au cours du
célèbre congrès de physique Solvay de 1927 à Bruxelles, la
nouvelle théorie des quanta est présentée et au cours des
discussions, Niels Bohr développe ce qui devient le principe
de correspondance qui affirme que les points de vue cor-
pusculaires et ondulatoires, a priori incompatibles, sont des
visions complémentaires de la réalité. Cette idée devient le
sujet de discussion majeur du congrès. L’aspect purement
conceptuel appelé l'interprétation de Copenhague (égale-
ment nommé orthodoxe), divise les pères fondateurs de la
physique quantique. Il est défendu par Bohr, Heisenberg,
Pauli et Dirac alors que Schrödinger, Einstein, Planck et De
Broglie s'y opposent.
Figure 3 : Photo du cinquième congrès Solvay de 1927. Tous les jeunes théoriciens de la nouvelle physique quantique sont là. Le conflit entre la vision d'Einstein et l'école de Copenhague va éclater.
REE N°4/2012 ◗ 89
Ancien Directeur général des télécommunications
entretien avec Gérard Théry
REE : La REE a publié dans son nu-
méro de juillet 2012 un « Retour
sur… » consacré à la grande aventure
du téléphone pour tous telle que Marie
Carpenter l’a relatée dans un ouvrage
récent. On y voit que vous avez joué
un rôle primordial dans l’essor de no-
tre infrastructure téléphonique et de
notre industrie des télécom. Quel sou-
venir vous laisse cette époque ?
G. T. Le livre de Marie Carpenter relate
très exactement et très objectivement un
épisode de la décennie des années 70,
qui vit l’essor de l’infrastructure télépho-
nique française et de l’industrie des télé-
com. Le rôle que j’ai pu y jouer doit être
replacé dans le cadre d’une volonté poli-
tique forte de développement, donnant
une priorité à l’industrie, à l’innovation et
aux technologies nouvelles. Le redresse-
ment rapide du téléphone fut aussi le fait
d’ingénieurs de talent, et d’un personnel
des télécom puissamment motivé.
REE : Que s’est-il passé ensuite ?
G. T. Le contexte était à l’époque diffé-
rent de ce qu’il est aujourd’hui. Le rôle
des états y était important, la volonté de
développement industriel était très forte,
tandis que, du fait des premiers chocs
pétroliers, s’achevait la période bénie des
30 glorieuses. Le mot « industrie » était
un signe de ralliement pour de nom-
breux intervenants du monde public et
privé. Ajoutons que tous ces efforts trou-
vaient leur place dans un respect attentif
de l’équilibre des finances publiques.
Hélas, en France, une telle « pensée
industrielle » n’a pas survécu. Les gou-
vernements successifs ont oublié que
l’industrie, dans toutes ses déclinaisons,
grands acteurs, moyennes et petites en-
treprises, sans oublier l’artisanat, était le
moteur fondamental de croissance de
l’économie et d’équilibre de la balance
commerciale.
Une financiarisation excessive a fait le
reste. A-t-on voulu oublier que l’entrepri-
se n’est pas seulement un budget, une
représentation aplatie sur deux seules
dimensions, un commentaire contingent
d’analystes, mais un ensemble de talents,
un corps social, un code rassemblant les
hommes sur des buts communs. L’entre-
prise est le contraire d’un monstre froid.
Elle est le contraire d’une entité abstraite
manipulée par des régulateurs, des fonc-
tionnaires ou des parlementaires intem-
pestifs, accommodée à la sauce de lois
ou de décrets qui l’affaiblissent.
REE : Et le rôle de l’Europe ?
G. T. Dans le domaine des télécom et des
technologies de l’information, le rôle des
autorités européennes a été catastrophi-
que, même si on ne peut imputer au seul
Bruxelles la totale responsabilité de la si-
tuation. La réalisation du projet Galileo ne
saurait à elle seule sauver l’honneur en
contrepartie des matches perdus.
Le bilan est accablant en effet. L’Eu-
rope est bonne dernière en équipement
en fibre optique et en réseaux mobiles
de 4e génération. L’investissement dans
les nouveaux contenus multimédia gé-
nérés par des débits élevés et toute l’in-
novation indispensable pour sortir des
concepts traditionnels d’une télévision
de papa, est resté misérable. Le paie-
ment par mobile est embryonnaire. La
numérisation des bibliothèques et des
musées a été confiée à des acteurs non
européens, alors qu’elle aurait dû consti-
tuer une priorité culturelle. Les réseaux
de visiophonie végètent à des niveaux
de qualité digne du cinéma des Frères
Lumière.
En définitive, l’absence de vision est
flagrante. Les impératifs de développe-
ment, de même que l’établissement d’un
environnement propice, ont fait place à
une conception vétilleuse de la concur-
rence consistant à affaiblir les opérateurs
avec les conséquences négatives sur les
équipementiers et le paysage industriel
en général.
REE : Ce diagnostic de la politique
européenne n’est-il pas trop sévère ?
G. T. Un audit de l’action de Bruxelles
et de la situation actuelle, s’il était possi-
ble, permettrait d’être plus circonstancié.
Mais trois constats méritent d’être pris
plus précisément en compte.
Les principes qui ont servi de fon-
dement à la politique de concurrence
en Europe sont erronés. S’il est normal
qu’une concurrence bien comprise serve
les intérêts des consommateurs – rien
à redire à cela, les excès vont à l’encon-
tre de l’investissement, favorable lui, au
consommateur de demain, c’est-à-dire à
nos enfants. À certaines exceptions près,
l’état de sous-investissement est une des
caractéristiques de la situation de l’Eu-
rope aujourd’hui, particulièrement dans
les domaines de marchés émergents, où
le risque est plus élevé et la rentabilité
moins immédiate. Le retard en matière
de numérisation des processus de tous
ordres en est l’illustration. Les exemples
d’Apple, de Google et d’Amazon mon-
trent que le contexte nord-américain et
l’attitude des marchés étaient beaucoup
plus favorables à l’émergence de grou-
pes puissants.
Les gouvernements successifs ont oublié
que l’industrie, dans toutes ses déclinaisons,
sans oublier l’artisanat, était le moteur fondamental de croissance de l’économie
Dans le domaine des télécom
et des technologies de l’information,
le rôle des autorités européennes
a été catastrophique
90 ◗ REE N°4/2012
Le deuxième constat touche à la po-
litique d’encadrement commercial face
à la montée de la mondialisation. Les
négociateurs européens à l’OMC, de
même que face à la Chine, n’ont pas été
à la hauteur, sauf exception, des intérêts
stratégiques de l’industrie européenne.
Les États-Unis, état fédéral et acteurs
industriels, ont été plus vigilants et ont
su, globalement, mieux défendre leurs
intérêts. Il ne s’agit nullement d’entrer
dans une spirale protectionniste bien
entendu, mais de garder avec raison le
sens de nos intérêts. La menace actuelle
sur l’industrie européenne des cellules
solaires en est une bonne illustration.
Le troisième constat est celui de
l’euro fort. La politique monétaire, face
au dollar et au yuan notamment a en-
gendré une perte de compétitivité pour
l’ensemble des pays européens, l’Alle-
magne exceptée.
REE : Qu’en est-il aujourd’hui
des situations respectives
de l’Allemagne et de la France ?
G. T. Les situations de ces deux pays ne
sont pas les mêmes. Les évolutions ont
été différentes. En 1980, le déficit des
administrations publiques en France était
de 1,2 Md €, soit de 0,3 % du PIB. Il n’a
cessé de se creuser depuis pour attein-
dre en 2011 le niveau insupportable de
103 Md €, soir 5,2 % du PIB.
De son côté, après un affaiblissement
dû à la réunification de 1990, l’Allema-
gne a accepté une politique de rigueur
qui a porté ses fruits. Ses comptes sont
en équilibre.
Et pour ajouter à cette situation ca-
lamiteuse, le taux de valeur ajoutée de
l’industrie française rapporté au PNB est
tombé de plus de 30 % en 1980 à en-
viron 15 % (sous réserve de la précision
des statistiques), tandis qu’il restait de
l’ordre de 35 % en Allemagne.
« Voilà pourquoi votre fille est muet-
te » dirait Molière. La situation est incon-
testablement difficile à redresser en peu
de temps. Encore conviendrait-il, devant
le péril qui menace, de redresser la barre
immédiatement.
REE : Alors que faire ?
G. T. Il me semble d’abord qu’une po-
litique monétaire bien comprise devrait
être, tout en surveillant le niveau d’infla-
tion, de faire baisser l’euro par rapport
au dollar et au yuan, de façon à redon-
ner de l’oxygène à une majorité de pays
membres. L’Allemagne, dont une part
majoritaire des exportations se situe en
Europe, ne devrait pas en pâtir.
Il convient ensuite de redonner une
priorité absolue à l’investissement, en
évitant que la plus grande part de celui-
ci soit dédiée aux seuls travaux publics.
En France par exemple, le coût de l’é-
quipement en fibre optique eût été in-
férieur à celui de la multiplication des
ronds-points à l’anglaise, dont quelques
uns, grains successifs de dizainiers muni-
cipaux, se sont révélés superflus.
Dans quels domaines ? Je citerais la
numérisation de toutes les entités de
la vie courante où il faut investir massi-
vement. Nous entrons dans une ère où
le moindre processus est numérisable.
À court terme, aucune entité physique
ou industrielle, aucun diagnostic médi-
cal, aucun échange financier ou culturel,
aucune langue, aucune base de savoir
ou d’expertise, ne sera dissociable de
son double numérique.
Pour ce qui est de la France, il
convient de déployer massivement, sans
faux-semblants, les mesures propres à
favoriser la création et la profitabilité de
petites entreprises. On est encore loin
du compte. Il s’agit moins de subven-
tions que de mise en place d’un envi-
ronnement propice, notamment par une
priorité plus vigoureuse à l’apprentissage
dans les nombreux métiers où la de-
mande reste soutenue.
Last but not least, il est indispensable
de favoriser l’émergence de nouveaux
projets européens de grande ampleur,
associant les acteurs industriels et sans
perdre de temps en débats byzantins. Je
citerais la traduction automatique d’une
langue à l’autre, le développement de
la visiophonie, les réseaux nouveaux de
paiement… Il faut des normes commu-
nes à ces nouveaux réseaux comme le fut
en son temps la norme GSM. D’aucuns
continueront d’affirmer qu’il n’y a pas de
marché. Ils se trompent. Comme le plus
souvent en matière de nouvelles tech-
nologies, l’offre génère la demande.
REE : Ne négligez-vous pas le facteur
temps ?
G. T. Raison de plus pour ne pas at-
tendre. Certaines initiatives sont à effet
immédiat : une mise en valeur plus effi-
cace des know-how, des brevets ou des
produits de la recherche universitaire ou
des grandes écoles, etc.
D’autres ne porteront leurs fruits
qu’à échéance de 2 à 5 ans, le déploie-
ment de la fibre, l’investissement dans
La politique de la concurrence,
la politique d’encadrement commercial et la politique monétaire
ont eu des effets néfastes
Redonner une priorité absolue à l’investissement,
en évitant que la plus grande part
de celui-ci soit dédiée aux seuls travaux publics
Favoriser la création et la profitabilité
de petites entreprises… Favoriser également
l’émergence de nouveaux projets européens de grande ampleur
REE N°4/2012 ◗ 99
A la différence des précédentes, cette
chronique ne trouve pas sa source
dans la lecture et la confrontation
d'ouvrages récents ; elle a été inspirée
par les excellents Libres propos de Lucien Des-
champs, dans le dernier numéro de REE : Pros-
pective et recherche : relever les défis du 21e
siècle.
Lucien Deschamps, après avoir rendu d'émi-
nents services à la SEE, dont il est d'ailleurs mem-
bre émérite, anime depuis 15 ans Prospective
21OO ; cette dynamique association de prospec-
tive a été créée et est actuellement présidée par
Thierry Gaudin, qui nous donne dans ce numéro
de roboratives considérations sur Les réseaux au
secours de l'écosystème.
On ne contestera pas à Lucien Deschamps le
droit de recenser les besoins essentiels de l'hu-
manité et les défis associés. L'urbanisation crois-
sante et les prévisions démographiques imposent
aussi de repenser la ville et l'aménagement du
territoire. Mais quand il évoque la mer et l'espace
comme lieux et sources du développement futur,
il est tentant de parler d'utopie... Certes l'utopie
d'aujourd'hui est la prospective de demain et,
peut-être, la réalité d'un futur lointain, mais entre
l'imaginaire, fût-il intellectuellement cohérent, le
possible et le réel il existe bien des différences,
qu'illustre par exemple la confrontation des œu-
vres de Jules Verne avec l'histoire des techniques
depuis un siècle. Pouvons-nous aussi évoquer ici
la fameuse réduction du paquet d'onde : de tous
les possibles, un seul sort de l'expérience !
La prospective s'assigne pour objectif d'ana-
lyser les réponses possibles, souhaitables même,
aux défis de l'époque et les scientifiques devraient
plus réfléchir à ces aspects qu'aux risques, réels
ou fantasmés, de leur activité : même si l'analyse
des inconvénients et des dangers est incluse dans
la prospective, celle-ci ne peut s'arrêter au « prin-
cipe de précaution » ! Parmi les futurs possibles, il
est nécessaire d'analyser les contraintes, voire les
contradictions, qui surgissent dans une réalité com-
plexe où s'entrecroisent des forces et des objectifs
variés ; la prospective assume là une fonction es-
sentielle, celle d'éclairer l'action publique par l'ex-
pertise et le rappel des enjeux car rien de cohérent
ne peut émerger dans notre village planétaire sans
un éclairage à la fois global et critique.
Mais cet exercice souhaitable et périlleux
bute structurellement sur une double sous-esti-
mation : celle des contraintes matérielles, physi-
ques ou financières, et celle du hasard ; les libres
propos de Lucien Deschamps n'y échappent pas
complètement. Ainsi, quand il évoque les cités du
futur ou bien l'exploitation des océans, n'oublie-
t-il pas quelque peu la nécessaire économie des
ressources, ou ce qui revient au même le coût
prohibitif de réalisation. Même à l'heure des
prouesses architecturales et des cités marines, il
serait excessif d'y voir un modèle pour résoudre
la question du logement à l'échelle planétaire : il y
a là une forme d'utopie, même si des réalisations
concrètes existent déjà : Versailles, c'était pour le
Roi, pas pour ses sujets !
De même l'exploitation des ressources spa-
tiales butera encore longtemps, si ce n'est éter-
nellement, sur les contraintes énergétiques et la
pesanteur terrestre : il n'est pas as-suré que notre
siècle verra de gigantesques centrales photovol-
taïques dans l'espace, ni que les suivants permet-
tront d'aller chercher des minéraux précieux sur
les astéroïdes... Le voyage sur Mars sera déjà une
extraordinaire aventure.
En plus de telles contraintes matérielles, il fau-
drait aussi mieux prendre en compte – mais com-
ment ? – les incertitudes, celles liées à la nature
et aux formes des progrès scientifique et tech-
nique, et celles associées aux usages qu'en font
les sociétés. Ainsi Carnot (1796-1832) et Ampère
(1775-1836) sont-ils contemporains, mais c'est le
plus jeune qui symbolise, avec la théorisation de
la puissance motrice du feu, l'essor de la ma-
chine à vapeur qui précédera le moteur électrique
de quelques décennies Par contre au début du
20e siècle la voiture électrique fut à deux doigts
de supplanter celle que nous connaissons encore,
avec son moteur à explosion.
Il semble bien que la prospective peine dans
le domaine des TIC : le téléphone a dû attendre
dans notre pays une vigoureuse politique de rat-
trapage et, un quart de siècle plus tard, le portable
a plus contribué à la modernisation du continent
africain en dix ans que le fixe en un siècle. La diffu-
sion des écrans plats ne pouvait se faire qu'après
la mise au point de la couleur, longtemps délicate,
parce que le public de la télévision ne risquait pas
revenir au noir et blanc, fût-ce au nom du pro-
grès technique ! La visiophonie, bel exemple de
prospective technologique et bel échec industriel,
se retrouve alors être une retombée à peine vo-
lontaire du très bas coût des caméras désormais
intégrées dans tous les écrans.
Plus près de nous et malgré la stimulation de
la science-fiction, la prospective n'avait guère en-
visagé le prodigieux développement du microor-
dinateur, désormais produit annuellement à plus
de 400 millions d'exemplaires, et de ses usages :
la prospective a été éclipsée par la loi de Moore et
elle peine à dire ce qui se passera en matière de
composants électroniques quand ceux-ci attein-
dront leurs limites physiques.
Pour évoquer des problèmes d'actualité, la
place relative du gaz de schiste et des hydrocar-
bures va sans doute autant dépendre des progrès
technologiques que des décisions politiques, fus-
sent-elles éclairées par l'effort de prospective ! Il
en est de même de l'essor, réclamé par les uns,
ou du déclin, exigé par les autres, de l'énergie
nucléaire.
Et puis il y a les imprévisibles évolutions de
la société elle-même, qu'évoque si souvent Edgar
Morin : ce qui est probable, c’est que l’improbable
va sans doute se produire et provoquer ainsi des
bifurcations, analogues à celles se produisant lors
des transitions de phase.
Le présent numéro de REE en porte d'ailleurs
témoignage à sa façon des incertitudes tant
techniques que sociétales qui limitent la pros-
pective : personne n'envisageait, il y a cinquante
ans, lors de la découverte des lasers à semi-con-
ducteurs leur prodigieux développement, puis
la révolution de l'éclairage grâce à des diodes
électroluminescentes. Par contre aujourd'hui, les
scientifiques croient fermement à la naissance
de l'ordinateur quantique sans pouvoir fixer la
durée de sa gestation !
On s’autorisera ici en guise de conclusion une
double prospective :
• le monde quantique va continuer de nous éton-
ner, de nous intriguer et de modifier, par ses re-
tombées applicatives, nos modes de vie ;
• comme l'ont finement observé d'éminents pros-
pectivistes (Léon Gambetta puis Pierre Dac) :
les prévisions sont risquées, surtout quand elles
concernent l'avenir ! ■
B. Ay.
CHRONIQUE
Prospective & utopie« Je m’intéresse à l’avenir car c’est là que j’ai décidé de passer le restant de mes jours »
Woody Allen
REE N°4/2012 ◗ 101
libREs PROPOS
Thierry Gaudin Président de Prospective 21oo
Le 28 mars 2012, le journal « Le Monde », re-
late le cri d’alarme lancé au cours d’une journée
d’audition publique au Sénat, par deux séna-
teurs de bords opposés, Pierre Laffitte (UMP,
Alpes-Maritimes) et Claude Saunier (PS, Côtes-d’Armor) :
« La prise de conscience des autorités et de la société
a eu lieu sur les risques liés au changement climatique,
mais pas sur les conséquences de l’effondrement de la
biodiversité », estime M. Saunier. Le choc à prévoir est
pourtant au moins aussi important.
« La biodiversité des écosystèmes, support du déve-
loppement de l’humanité, est en voie de dégradation
accentuée », mettent en garde les deux élus, dans un
rapport d’étape. « La vie dispose d’une extraordinaire ca-
pacité d’adaptation, pourvu qu’elle en ait le temps », a
rappelé M. Saunier.
Or la disparition des espèces a au-
jourd’hui lieu à un rythme dix à cent fois
supérieur à la normale, et, d’ici à 2050,
il pourrait devenir de cent à mille fois su-
périeur. « Quand on évoque le sort des
papillons, des oiseaux ou des microbes,
les citoyens ne s’y retrouvent pas », dit
Robert Barbault, directeur du départe-
ment d’écologie au Muséum national
d’histoire naturelle. Mieux vaut parler de la biodiversité
comme du tissu vivant de la planète. Ce sont des mil-
liards d’espèces, dont les hommes, qui ont une multi-
tude d’interactions entre elles. Quand une maille saute,
une deuxième lâche puis une troisième, et le tissu se
désorganise.
« L’espèce humaine ne vit pas hors sol », rappelle
Dominique Dron, professeure à l’école des Mines et com-
missaire interministérielle au développement durable. « Si
les écosystèmes ne sont pas assez robustes pour encais-
ser le choc climatique, nous ne le serons pas non plus ».
Les causes de l’effondrement sont connues : surexploi-
tation des ressources halieutiques, pollution des eaux
douces, déforestation pour l’exploitation commerciale
du bois ou agricole, méthodes de culture intensives,
urbanisation... Sans oublier la « pollution biologique »
causée par le transport d’espèces exotiques dans de
nouvelles zones et l’impact du changement climatique.
Cette situation impose des initiatives « d’une autre
ampleur que celles menées actuellement », selon les
élus. La France a, sur ce point, « une responsabilité parti-
culière », du fait de sa place dans les organisations inter-
nationales et de sa présence dans les zones tropicales,
très menacées. La création de réserves naturelles, si elle
est indispensable, n’est pas une réponse suffisante, se-
lon les scientifiques : isolées, ces zones sont condam-
nées. Pour eux, toutes les activités humaines devraient
prendre en compte la nécessité de protéger le vivant.
D’autre part1, en se basant sur des théories scientifi-
ques, des modélisations d’écosystèmes et des preuves
paléontologiques, une équipe de 18 chercheurs, in-
cluant un professeur de la Simon Fraser University (SFU,
Vancouver), prédit que les écosystèmes terriens vont
faire face à un effondrement imminent et irréversible.
Dans un article récemment publié dans Nature, les
auteurs examinent l’accélération de la perte de biodiver-
sité, les fluctuations climatiques de plus en plus extrê-
mes, l’interconnexion grandissante des
écosystèmes et le changement radical
dans le bilan énergétique global. Ils sug-
gèrent que tous ces éléments consti-
tuent des précurseurs à l’apparition d’un
état planétaire de seuil ou encore d’un
point de basculement. Si cela s’avérait
exact, ce que les auteurs prédisent pour
le siècle en cours, les écosystèmes de
la planète, en l’état des connaissances actuelles, pour-
raient rapidement et irréversiblement s’effondrer.
Ces alertes nouvelles, qui viennent compléter celles
du changement climatique, rappellent irrésistiblement
les livres d’un auteur devenu incontournable en pros-
pective, Jared Diamond. Dans son ouvrage intitulé pré-
cisément « effondrements », il décrit de nombreux cas
de civilisations qui se sont effondrées dans le passé :
l’île de Pâques, les Vikings au Groenland et aussi quel-
ques cas de civilisations qui auraient dû s’effondrer, mais
qui ont échappé à ce destin, notamment le Japon des
Tokugawa, au prix d’une discipline de fer imposant à la
population de protéger et sauvegarder la nature.
Ces éléments, même s’ils ne contiennent aucune
certitude quant à la date et aux modalités, nous condui-
sent irrésistiblement vers la philosophie de Jean-Pierre
1 Source Médiaterre, Organisation internationale de la francophonie.
Les réseaux au secours
de l’écosystème
102 ◗ REE N°4/2012
libREs PROPOS
Dupuy, celle du catastrophisme éclairé. Il faut préciser
ici que, faute de disposer d’un vocabulaire adéquat,
l’idée de Dupuy est souvent mal interprétée. On croit
instinctivement que le mot « catastrophisme » signifie
que l’auteur souhaite la catastrophe, alors que c’est tout
le contraire : il veut convaincre de penser la catastrophe
pour être mieux en mesure de l’éviter.
Or, notre civilisation actuelle focalise son attention
sur les productions et les endettements. Elle croit, ou fait
semblant de croire, que le développement économique
est à la fois le but et le remède. Ce discours, soutenu
par un appareil de persuasion d’une puissance jamais
atteinte, les médias, est celui des marchands dont le but
est le même depuis l’antiquité mésopotamienne : ac-
croître leur chiffre d’affaires et leurs résultats financiers.
Il n’y a rien de surprenant à ce que la caste des mar-
chands tienne ce discours. Le problème est qu’il n’y en a
quasiment pas d’autre, sauf celui des scientifiques, alors
que les risques globaux, causés par les excès d’exploita-
tion, s’accroissent. Et nous sommes dans une civilisation
où la Science est au service du développement de l’ac-
tivité marchande, alors qu’elle devrait au contraire servir,
par ses mesures et ses prévisions, de contrepoids à ses
excès.
Toutefois, le siècle qui a commencé connaît une mu-
tation technique porteuse d’un certain espoir : la mise
en réseau du monde, dont les lecteurs de la REE sont,
pour la plupart, des opérateurs.
Cette mise en réseau est double :
• L’énergie, avec l’internationalisation et la densification
du réseau électrique, qui devient progressivement par-
tout le principal porteur de l’alimentation énergétique.
Du coté des usages, l’électrification ferroviaire fut une
grande affaire de l’après guerre. On voit maintenant
s’installer l’électrification des véhicules individuels,
qu’ils soient ou non hybrides, du chauffage aussi avec
les pompes à chaleur. Et l’interconnexion du réseau
avec d’autres pays, réalisée en Europe, se construit au-
delà de la méditerranée et se négocie avec la Russie.
La construction d’une électrification mondiale maillée
est donc en cours.
• L’information, avec les satellites, le câblage en fibre
optique, le GSM, le Wi-Fi et le WiMAX s’ajoutant au
traditionnel réseau télécom en fils de cuivre. Internet,
le courriel touchent déjà un tiers de la population mon-
diale et en touchera vraisemblablement les deux tiers
dans une quinzaine d’années. Cette mise en réseau
est de nature à transformer complètement la manière
dont les opinions se forment et dont les comporte-
ments de consommation se construisent.
C’est pourquoi je qualifie ces réseaux de porteurs
d’espoir. Je suis de ceux qui croient que l’apparition sur
nos écrans de la photo du globe terrestre vu de l’espace
a fait évoluer les mentalités. Sans doute, une enquête
d’opinion verrait-elle le public, toujours un peu grognon,
répondre que, pour lui, rien n’a changé, que la vie quo-
tidienne est toujours aussi difficile, voire que cet argent
jeté en l’air aurait été mieux employé à résoudre les pro-
blèmes terrestres.
Et ce même public trouve son chemin avec son GPS,
sans savoir qu’il s’agit d’une triangulation entre satellites,
nécessitant des horloges d’une précision extrême. Il re-
garde les animations de Météosat et reçoit des nouvel-
les par satellite de l’autre coté de la planète répercutant
mondialement aussi bien les accidents que les exploits
sportifs. L’usage de l’espace et des réseaux mondiali-
sés est devenu quotidien sans même qu’il s’en rende
compte.
Insensiblement, nous sommes entrés dans un nou-
veau monde, où la conscience fonctionne autrement.
Les lecteurs de la REE se trouvent, sans l’avoir cherché,
avoir à construire et gérer l’infrastructure de ce boule-
versement.
Bouleversement ? Ne s’agit-t-il pas seulement du
prolongement des tendances passées, d’une évolution
peut-être un peu erratique mais certainement pas bou-
leversante, de la société que nous connaissons ? Je ne
le crois pas, et pour situer l’ampleur de ce qui s’annonce,
je vais me référer à l’histoire de l’écriture, base de ce que
nous appelons civilisation2.
L’écriture apparaît vers -3200. À cette époque, le
cheval est domestiqué et le chameau le sera bientôt.
Un mouvement d’urbanisation commence en Méso-
potamie. L’interprétation de ces signes est assez claire,
lorsqu’on sait, comme l’a remarqué Jean Bottéro, que
plus des trois quarts des tablettes mésopotamiennes
sont des « papiers d’affaire » : des contrats, des actes
de propriété, de la comptabilité… C’est une civilisation
qui, partie du village rural autonome, se lance dans le
commerce : les villes sont des places de marché, les
2 en m’inspirant du livre de Clarisse Herrenschmidt, Les trois écritures.