ÉLÉMENTS D'ÉPISTÉMOLOGIE DES SCIENCES EXPÉRIMENTALES …
Transcript of ÉLÉMENTS D'ÉPISTÉMOLOGIE DES SCIENCES EXPÉRIMENTALES …
Bernard Darley - IUFM d'Aquitaine 17/06/2010
1
ÉLÉMENTS D'ÉPISTÉMOLOGIE DES SCIENCES EXPÉRIMENTALES EN GÉNÉRAL ET DE LA
BIOLOGIE EN PARTICULIER
INTRODUCTION
Ce cours ne prétend pas être une revue exhaustive de tous les courants et écoles
épistémologiques depuis les présocratiques jusqu'à nos jours. Ce serait œuvre
d'épistémologue, ce que je n'ai pas la prétention d'être.
L'épistémologie reste cependant un champ d'analyse de la construction des
connaissances dont il est difficile de nier l'intérêt lorsque l'on s'intéresse à la didactique d'une
discipline. C'est pourquoi, même si le risque était grand d'être incomplet dans le tour
d'horizon et maladroit dans les analyses, il était indispensable, pour que l'idée d'une
transposition didactique de la démarche scientifique prenne sens, et préalablement à tout autre
tâche, d'effectuer cette synthèse bibliographique.
Mon souci a été d'étudier les principaux courants en m'attachant à en tirer ce qui,
aujourd'hui, dans le cadre de l'enseignement de la biologie, est susceptible de présenter un
intérêt en tant que cadre d'analyse de pratiques. Ainsi Aristote est davantage cité qu'étudié
dans le détail. Non pas que sa philosophie ou son apport aux sciences naturelles soient
négligeables mais essentiellement parce que son approche de la construction des
connaissances (la logique), a été reprise et intégrée dans des approches épistémologiques
modernes. De même Roger Bacon a été "oublié" au profit de son homonyme Francis. Si
Roger a été l'un des premiers critiques de la démarche des scolastiques, c'est Francis qui,
quelques trois siècles plus tard, allait être, avec son Novum Organum, un des précurseurs de la
pensée positiviste. Des choix ont donc été faits ; fondés par la volonté de limiter l'analyse aux
chefs de file des principaux courants épistémologiques qui ont marqué cette discipline ;
critiquables par le fait même qu'étant des choix, ils passent sous silence nombre d'auteurs
importants.
Les auteurs de référence retenus pour ce chapitre sont les suivants :
Bernard Darley - IUFM d'Aquitaine 17/06/2010
2
Aristote parce qu'il est celui qui a donné ses fondements scientifiques à l'étude
des animaux et des végétaux et qui a promu la logique comme forme de pensée.
Francis Bacon comme initiateur d'un courant de pensée pré- positiviste mais
aussi représentatif, par ses positions, du bouleversement des conceptions qui agite le monde
scientifique depuis la Renaissance.
Auguste Comte comme fondateur de l'école de pensée positiviste et Claude
Bernard qui formalisera l'approche expérimentale, consommant ainsi la rupture avec
l'approche descriptive engagée plus de deux siècles auparavant par Harvey et Santorio et
développée par les grands expérimentateurs de la fin du XVIIIème siècle comme Rédi,
Réaumur, Lavoisier ou Spallanzani.
Karl Popper et Gaston Bachelard comme chefs de file d'une école cherchant à
concilier rationalisme et empirisme.
Thomas Kuhn pour son introduction de la dimension sociologique dans le
processus de construction des savoirs.
Ernst Mayr enfin qui replace cette étude très inspirée par l'épistémologie de la
physique dans le cadre, voisin mais néanmoins différent, de la biologie.
1 - L'ANTIQUITÉ
1.1 - ARISTOTE (-348, -322)
S'opposant à Platon pour qui le "monde d'en bas", perpétuellement soumis à des
altérations1 ne saurait être l'objet d'une science (Taton, 1966), Aristote montre que les êtres
vivants, qu'ils soient végétaux ou animaux, présentent des caractères constants, spécifiques,
qui permettent leur identification et leur regroupement au sein de classes, initiant ainsi les
premières systématiques animales et végétales (G. Lloyd, 1983). Aristote fut de plus, si l'on
en croit encore G. Lloyd, à l'origine du cadre théorique qui a donné sens aux dissections
animales. La théorie des causes (et les causes finales plus particulièrement) finalise la forme
d'un organe en l'associant à la fonction pour laquelle il a été créé. En attribuant à chacun des
organes une fonction précise, la dissection prend sens en devenant une recherche de
l'adéquation entre la structure et la fonction.
Aristote et son école vont laisser derrière eux, en plus d'un cadre philosophique pour la
pensée scientifique, un ensemble de traités de zoologie, de botanique et de géologie qui,
associé à la Bible, va constituer l'essentiel du savoir de référence jusqu'au XVI° siècle. D'un
1par "altérations", Platon entendait les variations qui frappent la descendance des individus
Bernard Darley - IUFM d'Aquitaine 17/06/2010
3
côté un corpus de quelques ouvrages et auteurs de référence : la Bible et Aristote bien sûr,
mais aussi Hippocrate et Galien pour la médecine, Euclide pour la géométrie, Dioscoride pour
la botanique, Physiologos pour la zoologie. De l'autre un mode de raisonnement (la logique),
le tout cohabitant sans empiéter sur les domaines respectifs de chacun. La connaissance était
du domaine des livres et la logique un exercice de l'esprit, souvent purement formel. Remettre
en cause les premiers au moyen du second en confrontant leurs contenus au monde qui nous
entoure revenait, de fait, à s'attaquer aux dogmes de l'Église et au domaine réservé de l'École.
Quant à l'exploration du "monde d'en bas" elle relevait, pour l'essentiel, de l'alchimie.
2 - XVIème et XVIIème SIECLE
2.1 - FRANCIS BACON (1561 - 1626)
«Il ne fait pas de doute que la souveraineté de l'homme se tient cachée au cœur de la
connaissance». Par cette phrase Francis Bacon (in J.M. Pousseur, 1988, p. 56) veut introduire
une nouvelle conception de la science et des rapports entre l'homme et la connaissance.
Science pragmatique dont l'objet n'est plus la connaissance pure des philosophes grecs et des
scolastiques, non plus les pratiques magiques des alchimistes, mais une connaissance utile
«capable de produire de dignes effets, et de doter la vie de l'homme d'un nombre infini de
commodités» (ibid p. 58).
Pour cela il faut créer une science prenant résolument ses distances d'avec «la science
des premiers2 (qui) se fonde sur les réfutations, les sectes, les écoles, les disputes ; (et) celle
des seconds3 (fondée sur) l'imposture, la transmission de bouche à oreille et l'obscurité» (ibid
p. 58)
Francis Bacon se livre ainsi à une attaque en règle des méthodes "scientifiques" des
scolastiques en dénonçant l'hégémonie du syllogisme4, «ce mode d'invention et de preuve qui
commence par établir les principes les plus généraux, puis leur soumet les axiomes moyens,
pour prouver ces derniers, est la mère de l'erreur et le fléau de toutes les sciences» (ibid p.
108).
Au syllogisme il faut donc opposer un mode de raisonnement qui ne peut se suffire à
lui-même et qui nécessite un apport extérieur tangible comme point d'appui.
2les scolastiques 3les alchimistes 4principe de raisonnement de la logique formelle qui consiste à poser deux propositions ou prémisses (la majeure et la mineure) pour en tirer une troisième (la conclusion). Exemple classique : tous les hommes sont mortels (majeure) or Socrate est un homme (mineure) donc Socrate est mortel (conclusion).
Bernard Darley - IUFM d'Aquitaine 17/06/2010
4
«Il peut y avoir et il y a en effet deux voies ou méthodes pour découvrir la vérité, écrit-il
par ailleurs. L'une, partant des sensations et des faits particuliers, s'élance du premier saut
jusqu'aux principes les plus généraux ; puis se reposant sur ses principes comme sur autant de
vérités inébranlables, elle en déduit les axiomes moyens ou les y rapporte pour le juger : c'est
celle-ci qu'on suit ordinairement. L'autre part aussi des sensations et des faits particuliers ;
mais s'élevant avec lenteur par une marche graduelle et sans franchir aucun degré, elle n'arrive
que bien tard aux propositions les plus générales ; cette dernière méthode est la véritable mais
personne ne l'a encore tentée (…). L'une et l'autre méthode, partant également des sensations
et des choses particulières, se reposent dans les plus générales, mais avec cette différence
immense que l'une ne fait qu'effleurer l'expérience et y toucher pour ainsi dire en courant, au
lieu que l'autre s'y arrête autant qu'il le faut et avec méthode. De plus la première établit de
prime-saut je ne sais quelles généralités abstraites, vagues et inutiles, au lieu que la dernière
s'élève par degrés aux principes réels et avoués de la nature» (Novum Organum in Blanché p.
39-40).
Il y a donc deux voies. La mauvaise, celle des scolastiques qui établit, à partir
d'observations insuffisantes, des lois qui seront ensuite stérilement "disputées" par les écoles
(les sectes). La bonne, celle qui consiste à accumuler pièce à pièce les éléments du puzzle.
Mais, pour y parvenir, «il faut se garder de permettre à l'entendement de sauter, de
voler, pour ainsi dire, des faits particuliers aux axiomes (…). Et c'est ce qu'on a fait jusqu'ici,
l'entendement n'y étant que trop porté par son impétuosité naturelle et étant d'ailleurs de
longue main accoutumé, dressé à cela même par les démonstrations syllogistiques. Mais on
pourra espérer beaucoup des sciences lorsque, par la véritable échelle, c'est-à-dire par des
degrés continus, sans interruption, sans vide, on saura monter des faits particuliers aux
axiomes du dernier ordre, de ceux-ci aux axiomes moyens, lesquels s'élèvent peu à peu les
uns au-dessus des autres, pour arriver enfin aux plus généraux de tous. Car les axiomes du
dernier ordre ne diffèrent que bien peu de l'expérience toute pure. Mais les axiomes suprêmes
ou généralissimes (je parle ici des seuls que nous ayons) sont purement idéaux ; ce ne sont
que pures abstractions, n'ayant ni réalité ni solidité.» (Novum Organum in Blanché p. 39-40)
On retrouve ici l'idéal inductif de la science qui se construit brique après brique, axiome
de dernier ordre après axiome de dernier ordre, partant d'expériences pures pour atteindre, un
jour peut être, ces axiomes généralissimes qui seront les fruits de la connaissance. Pour y
arriver, il faut brider l'esprit, «attacher à l'entendement non point des ailes, mais au contraire
du plomb, un poids qui comprime son essor» afin d'éviter qu'il ne s'envole dans le domaine
des spéculations théoriques. Mais loin d'une induction naïve, Bacon propose au contraire
d'établir une classification des phénomènes observables en fonction de critères préalablement
établis. Pas «cette sorte d'induction qui procède par voie de simple énumération (qui) n'est
qu'une méthode d'enfants, qui ne mène qu'à des conclusions précaires, et qui court les plus
grands risques de la part du premier exemple contradictoire qui peut se présenter ; en général
Bernard Darley - IUFM d'Aquitaine 17/06/2010
5
elle prononce d'après un trop petit nombre de faits, et seulement de cette sorte de faits qu'on
rencontre à chaque instant. Mais l'induction vraiment utile dans l'invention ou la
démonstration des sciences et des arts fait un choix parmi les observations et les expériences,
dégageant de la masse, par des exclusions et des réjections convenables, les faits non
concluants ; puis après avoir établi un nombre suffisant de propositions, elle s'arrête enfin aux
affirmatives et s'en tient à ces dernières.» (Novum Organum in Blanché p. 41)
Quant à l'expérience, elle sera utilisée, lorsque l'observation seule des phénomènes se
révélera insuffisante, comme moyen de départager deux hypothèses contradictoires. Francis
Bacon propose ainsi de comparer les mouvements de deux horloges, l'une à poids l'autre à
ressort, préalablement réglées à l'identique, entre des lieux aussi distincts que le sommet d'une
montagne ou les profondeurs d'une mine de sel afin, dit-il, de déceler la véritable cause de la
pesanteur. «Si l'on trouve que cette force diminue sur les lieux élevés (diminution mise en
évidence par un ralentissement de l'horloge à poids) et augmente dans les souterrains (en
provoquant une accélération de cette même horloge), il faudra regarder comme la véritable
cause de la pesanteur l'attraction exercée par la masse corporelle de la terre» (Novum
Organum, in Blanché, p. 43).
Ces quelques extraits montrent combien la pensée de Bacon se démarque d'une pensée
encore essentiellement imprégnée de la logique aristotélicienne5 et du mépris pour l'acte
opposé à la noblesse de la pensée. Pour Francis Bacon il faut d'abord tenter de classer les
événements, ordonner le monde avant de chercher à en comprendre les lois6. Des difficultés à
ordonner jailliront les vrais problèmes que seule l'expérimentation pourra résoudre. Ces
problèmes seront alors posés par la nature elle-même et ne seront plus ces produits formels de
la raison dont les solutions ne sont pas autre chose que d'autres produits de la raison.
Cette méthodologie prêterait à sourire si l'on faisait abstraction d'un contexte historique
où l'interprétation des phénomènes était davantage d'ordre métaphysique que scientifique.
L'idée d'une classification possible des phénomènes selon des critères préalablement définis,
ou définis après une première investigation, laisse entendre, (comme le faisait d'ailleurs d'une
certaine manière Aristote avec l'énoncé de sa théorie des causes), que le réel est ordonné et
régi par des lois ; donc qu'il est prévisible7. Dans un monde ou alchimie et pratiques magiques
5même si, comme on l'a vu dans l'exemple précédent, il n'exclut pas la recherche des causes comme le fera, plus tard A. Comte. 6Principe de classification et d'ordonnancement du réel que l'on retrouvera dans le positivisme d'A. Comte. 7On pourrait, ici, reprendre la définition que donne Royer-Collard de l'induction : «Le principe de l'induction repose sur deux jugements : l'univers est gouverné par des lois stables, voilà le premier ; l'univers est gouverné par des lois générales, voilà pour le second. Il suit du premier que, connues en un seul point de la durée, les lois de la nature le sont de tous ; il suit du second que, connues dans un seul cas, elles le sont dans tous les cas parfaitement semblables.» (in Blanché p. 313)
Bernard Darley - IUFM d'Aquitaine 17/06/2010
6
sont monnaie courante, ces principes, qui annoncent le déterminisme, peuvent être, de ce
point de vue, considérés comme résolument modernes.
Mais malgré son rôle historique important au plan de l'évolution des idées, l'œuvre
scientifique de F. Bacon n'a pas été à la hauteur de ses théories. Claude Bernard rend
hommage au critique de l'École, mais n'a pas grande estime pour le scientifique :
«Bacon a senti la stérilité de la scolastique; il a bien senti toute l'importance de
l'expérience pour l'avenir des sciences. Cependant Bacon n'était point un savant et il n'a point
compris le mécanisme de la méthode expérimentale. (…) Bacon recommande de fuir les
hypothèses et les théories ; nous avons vu cependant que ce sont des auxiliaires de la méthode
(expérimentale), indispensables comme les échafaudages sont nécessaires pour construire une
maison. (…) Je dirai que, tout en reconnaissant le génie de Bacon, je ne crois pas qu'il ait doté
l'intelligence humaine d'un nouvel instrument» (C. Bernard, 1984, p.86)
Quant à Thomas Kuhn, il a ce jugement sévère :
«Mais bien que cette manière d'accumuler les données ait été essentielle à l'origine de
nombreuses sciences importantes, quiconque étudie, par exemple, les écrits encyclopédiques
de Pline ou les histoires naturelles baconiennes du XVIIème siècle constatera qu'elle aboutit à
un fatras». (T. Kuhn, 1970, p.36)
C'est sur les fondements même de l'épistémologie Baconienne que va porter l'essentiel
de la critique de K. Popper (Popper, 1985). Cette épistémologie, qu'il qualifie "d'optimiste",
est fondée, dit-il, sur l'idée d'une veracitas naturæ , d'une vérité de la nature, toujours
reconnaissable pour qui l'étudie avec un esprit pur de tout préjugé. Et si la vérité de la nature
est une évidence, la raison de nos erreurs est à rechercher dans notre refus de voir cette vérité
pourtant manifeste. Refus dû à l'influence pernicieuse des préjugés que l'éducation et les
traditions ont gravés dans notre esprit.
Le plus étonnant, pour Karl Popper, n'est pas tant que cette épistémologie ait été
énoncée, ni même qu'elle ait eu, à un moment donné de l'histoire, une audience certaine, c'est
le fait que cette épistémologie, «au demeurant fausse, a été la principale source d'une
révolution intellectuelle et morale sans précédent. Elle a encouragé les hommes à penser par
eux-mêmes.» (Popper, 1985, p. 25). Et à penser pour eux-mêmes ainsi que le propose la
citation de Bacon qui introduit ce paragraphe : «Il ne fait pas de doute que la souveraineté de
l'homme se tient cachée au cœur de la connaissance».
2.2 - UNE NOUVELLE MANIERE DE PENSER
La question, en ce début de XVIIème siècle n'est donc pas tant, comme l'écrit S.
Moscovici (in R. Blanché p.10) «de réaliser une expérience que d'établir les conditions qui la
Bernard Darley - IUFM d'Aquitaine 17/06/2010
7
rendent possible» ; et l'on pourrait ajouter : qui lui donne sens dans un contexte défini. C'est
donc une nouvelle manière de raisonner, une nouvelle manière d'associer raisonnement et
expérience qui apparaît.
Pour Robert Blanché cette nouvelle méthode s'oppose à celle pratiquée jusque là par
trois points : l'usage d'un raisonnement hypothético-déductif, le traitement mathématique de
l'expérience et l'appel à l'expérimentation.
Le raisonnement hypothético-déductif s'oppose à la déduction catégorique, chère aux
scolastiques, en remplaçant l'hypothèse-postulat de la logique formelle par une hypothèse-
conjecture qui n'affirme pas a priori sa valeur de vérité8. Hypothèse-conjecture dont le
caractère heuristique réside non dans sa véracité intrinsèque mais dans les conséquences que
l'on peut en tirer et dans leur adéquation à représenter le réel que l'on testera par des
expérimentations adéquates.
Le traitement mathématique du réel va supposer un effort mental extraordinaire, écrit
Robert Blanché ; effort mental qui «imposait le renoncement à l'attitude perceptive naturelle,
laquelle nous fait saisir un réel composé des qualités concrètes que nous donnent nos sens,
pour lui substituer une vision tout intellectuelle, qui réduit le réel à un système de rapports
mathématiques entre des dimensions abstraites» (Blanché, p. 33)
Harvey (1578-1657), dont l'approche quantitative avait permis d'élaborer sa théorie de
la circulation sanguine9, fut l'objet de critiques de la part des médecins galénistes qui lui
reprochait de ne pas se servir de ses yeux et de privilégier le calcul : «En vérité, vous ne vous
servez pas de vos yeux et vous ne leur commandez pas de voir, lui reproche Caspar Hofmann,
professeur de médecine à l'université d'Altdorf, mais au lieu de cela vous vous fiez à des
raisonnements, à des calculs, vous supputez le nombre de pintes et, jusqu'à la plus petite unité
près, la quantité de sang qui doit, à des moments déterminés, passer du cœur dans les artères
en l'espace d'une petite demi-heure. Franchement, Harvey, vous pourchassez un fait qu'il est
impossible de vérifier, une chose qui n'est pas calculable, qui est inexplicable, qui échappe à
notre connaissance.» (critique adressée à Harvey par Caspar Hofmann, professeur de
médecine à l'université d'Altdorf, cité par Boorstin, p. 357).
8ce qui va bien à contre courant de la science démonstrative telle que la définit Aristote, science dont «il est nécessaire quelle parte de prémisses qui soient vraies, premières, immédiates.» (Aristote, Seconds Analytiques, I, 2, in Blanché, 1969) 9Le sang était considéré jusqu'alors comme une nourriture de l'organisme fabriquée par le foie. Le sang irrigait les organes où il était consommé. En faisant le calcul simple consistant à multiplier le volume cardiaque par la fréquence et de rapporter le tout à 24 heures Harvey montrait que 20.000 litres de sang passe par le cœur dans ce laps de temps, quantité qui paraît difficile à fabriquer. D'où l'idée d'une quantité finie de sang recyclé en permanence.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
8
De même que Harvey pour la circulation, Santorio (1561-1636) va, le premier, proposer
une approche quantitative des flux de matière qui traversent l'organisme en se pesant
systématiquement après chacun des actes qui impliquait une entrée ou une sortie de matière
de son corps.
Cette approche mathématique du monde biologique, en augmentant l'abstraction des
modèles qui le définissent, introduit une perception de l'objet qui le démarque notablement de
celle que procure la vision. L'approche quantitative va, peu à peu, se substituer à l'approche
purement qualitative : l'objet ne se définit plus tant par sa description que par sa mesure.
L'apparition de l'expérimentation, enfin, comme recours systématique et comme base du
discours scientifique, suppose, là encore, un changement des mentalités. Le XVIIème siècle
est une époque où la théorie l'emporte sur la pratique, où «la spéculation est supérieure à
l'action, (où) l'idéal du sage est dans la vie contemplative» (Blanché p. 33). Les "ingénieurs"
n'y sont guère placés au-dessus des "manouvriers", et les médecins, dont les savoirs sont
essentiellement livresques, sont mieux considérés que les praticiens que sont les chirurgiens,
relégués dans la corporation des barbiers. Expérimenter c'est donc quitter la sphère
spéculative pour tomber dans la pratique. Passer du statut de philosophe à celui d'ingénieur.
Une autre évolution va également permettre à l'expérimentation de prendre son essor en
facilitant la diffusion des comptes rendus, ce sont les premières tentatives d'uniformisation
des systèmes de mesure. Uniformisation qui ne prendra pas moins de trois siècles.
Mais expérimenter suppose auparavant que l'on ait défini dans quel cadre théorique
l'expérimentation va s'intégrer, quelle vision du monde va donner sens à l'expérience.
2.3 - LE REALISME ET L'IDEALISME
Le glissement de sens affectant les prémisses du raisonnement déductif est lourd de
conséquences. Transformer les principes indémontrables que sont les postulats en conjectures,
c'est contester leur vérité première, ce que l'Église ne peut tolérer. On verra donc apparaître
deux attitudes qui vont se distinguer à la fois au plan scientifique, philosophique et
théologique ; mais aussi, plus prosaïquement, au plan du pragmatisme de leurs relations avec
l'Église.
2.3.1 - Le réalisme
La première de ces attitudes consiste à penser que le monde qui nous entoure, qu'il soit
physique ou biologique, a bien une existence en soi et que les phénomènes qui le traversent
sont associés à des causes qu'il convient d'identifier. La réalité est complètement connaissable
et l'objet de la science est de décrire la réalité telle qu'elle est, et pas seulement telle qu'elle
Bernard Darley - IUFM d'Aquitaine 17/06/2010
9
nous apparaît. Il faut aller au-delà du monde sensible, au-delà de nos perceptions, au-delà
donc des faits premiers. C'est la grande quête du "pourquoi ?". C'est reconnaître à l'homme la
possibilité de maîtriser un jour toute la connaissance du monde physique qui l'entoure.
Cette option amène donc la science, dans sa tentative à expliquer le monde, à se poser
en rivale du dogme. Ce qui ne va pas être sans poser quelques problèmes à pareille époque.
Les mésaventures de Galilée (dont l'entêtement à défendre sa conception réaliste du système
solaire face à l'Église est resté célèbre) sont de bons exemples des conséquences de
l'affrontement entre cette pensée réaliste, qui se place résolument dans le cadre d'une science
qui donne du monde des explications validées expérimentalement, et la pensée religieuse qui
lui oppose ses dogmes.
2.3.2 - L'idéalisme
A l'opposée du réalisme, la seconde attitude interprète la cause finale comme d'ordre
divin, donc inaccessible à la misérable petitesse de la pensée humaine. La frontière est ainsi
nettement tracée entre ce qui est du domaine de la foi, que l'on doit accepter comme hors de
portée de notre entendement, et ce qui est du domaine de la science dont le rôle est de nous
donner des outils propres à l'appréhension les phénomènes, seule partie du réel qui nous soit
accessible. Ainsi foi et science peuvent-elles coexister sans empiéter sur leurs domaines
respectifs.
Cette définition de la science suppose que le réel est, par essence, inaccessible. Vouloir
lui donner une existence en soi dont on sera incapable de prouver la réalité relève de la
métaphysique. Seul est accessible ce que nos sens peuvent percevoir. Ce sont donc ces
perceptions qu'il convient d'organiser sans chercher à savoir si cette organisation a une
quelconque réalité, le seul critère qui la justifie étant son aptitude à fonctionner. C'est la quête
du "comment ?", dont l'objectif est la construction d'outils de prédiction et d'action sur le
monde, mais qui s'interdit à prétendre rendre compte de sa réalité propre puisque la question
même de cette réalité n'a pas de sens.
Ainsi, comme l'écrit J. Largeaut (1984), « réalisme et idéalisme s'opposent terme à
terme, l'un affirmant ce que l'autre nie». Là où le premier voit des objets ayant une existence
en soi, indépendante de toute observation et de toute pensée, le second n'y voit que
construction de l'esprit qui doit être nécessairement ramenée non seulement à la situation
donnée mais aussi à l'observateur lui-même.
Cette attitude idéaliste va conduire à une vision instrumentaliste de la science, très bien
résumée dans la célèbre introduction d'Osiander au De revolutionibus orbium cœlestium de
Copernic paru en 1543. Introduction dans laquelle il affecte de voir dans l'hypothèse
héliocentrique non pas une explication du monde mais un simple artifice mathématique.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
10
«Il appartient en propre à l'astronome, écrit-il, d'abord de recueillir, par une observation
soigneuse et ingénieuse, les descriptions des mouvements célestes, ensuite d'en rechercher les
causes, c'est-à-dire, puisqu'il n'est possible en aucune façon de parvenir aux vraies, d'imaginer
et d'inventer des hypothèses quelconques, telles que de leur supposition, et en suivant les
principes de la géométrie, ces mouvements se puissent calculer exactement, aussi bien pour le
futur que pour le passé (…) Et il n'est pas nécessaire que ces hypothèses soient vraies, ni
même vraisemblables ; une seule chose suffit, c'est qu'elle se prête à un calcul qui tombe
d'accord avec les observations»10.(in Boorstin, p. 288, c'est moi qui souligne)
Position prudente qui ménageait l'Église et que Galilée refusa de suivre quelques temps
plus tard ; obstination qui lui valut les déboires que l'on sait.
Ces deux attitudes face au réel, qui existaient depuis fort longtemps chez les
philosophes, gagnent maintenant la sphère scientifique pour ne plus la quitter puisque la
question est loin d'être tranchée aujourd'hui encore, à supposer qu'elle le soit un jour.
3 - LE XIXème SIECLE ET LE POSITIVISME
Le positivisme a marqué plus particulièrement la biologie par le retentissement que lui
ont donné les travaux et surtout les écrits de Claude Bernard, qui reste, pour beaucoup de
naturalistes, celui qui a formalisé la démarche expérimentale en biologie. Mais on ne peut pas
évoquer Claude Bernard sans faire d'abord référence à Auguste Comte.
3.1 - LE POSITIVISME D'AUGUSTE COMTE
«Tous les bons esprits répètent depuis Bacon, qu'il n'y a de connaissance réelle que
celles qui reposent sur des faits observés» (A. Comte p.32). L'essentiel du point de vue d'A.
Comte tient dans cette phrase : référence à Bacon, antériorité des observations sur la
connaissance.
Pour A. Comte l'objet de la science est de définir les lois et les relations entre les
phénomènes, tout le reste (la recherche des causes en particulier) relève de la métaphysique.
La science positive «partant de faits observables définis relativement à l'observateur, les lois
naturelles sont établies dans la constante subordination de l'imagination à l'observation
».(Discours sur l'esprit positif 1844, in Kremer-Marietti, 1984).
10C'est Kepler qui, plusieurs années plus tard, identifia Osiander comme le rédacteur de cette introduction jusque là attribuée à Copernic.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
11
Une telle définition interdit donc toute spéculation a priori. La science positive doit se
construire sur les interprétations a posteriori des faits observés. Le positivisme est
indissociable d'une contingence des phénomènes naturels. Leur réalisation est toujours
probable, jamais déterminée de façon absolue, ce qui justifie ce rejet de l'anticipation : on ne
peut être sûr d'un phénomène qu'une fois ce dernier effectivement réalisé. C'est là qu'une
première difficulté apparaît. A. Comte est bien conscient qu'une observation n'a de sens que si
elle s'intègre dans un cadre théorique déjà présent. Or comment définir ce cadre théorique
sans anticiper a priori sur la connaissance ? Voici ce que répond A. Comte :
«Si d'un côté toute théorie positive doit nécessairement être fondée sur des observations,
il est également sensible, d'un autre côté, que, pour se livrer à l'observation, notre esprit a
besoin d'une théorie quelconque. Si en contemplant les phénomènes nous ne les rattachions
point immédiatement à quelques principes, non seulement il nous serait impossible de
combiner ces observations isolées, et, par conséquent, d'en tirer aucun fruit, mais nous serions
même entièrement incapables de les retenir ; et, le plus souvent, les faits resteraient inaperçus
à nos yeux.» (A. Comte, 1989, p.32).
Contradiction apparente qu'A. Comte lève de la façon suivante : avant d'atteindre sa
maturité positive qui le verra se consacrer uniquement aux faits, notre esprit passe par un état
primitif qui le voit accorder quelqu'importance à des spéculations sans fondement réel, mais
qui constitueront l'architecture théorique dont il a besoin pour interpréter les observations
qu'il sera conduit à faire par la suite.
«Ainsi, pressé entre la nécessité d'observer pour se former des théories réelles, et la
nécessité non moins impérieuse de se créer des théories quelconques pour se livrer à des
observations suivies, l'esprit humain, à sa naissance, se trouverait enfermé dans un cercle
vicieux dont il n'aurait jamais eu aucun moyen de sortir, s'il ne se fût heureusement ouvert
une issue naturelle par le développement spontané des conceptions théologiques, qui ont
présenté un point de ralliement à ses efforts, et fourni un aliment à son activité. Tel est (…) le
motif fondamental qui démontre la nécessité logique du caractère purement théologique de la
philosophie primitive. (…) Il est bien remarquable, en effet, que les questions les plus
inaccessibles à nos moyens, la nature intime des êtres, l'origine et la fin de tous les
phénomènes, soient précisément celles que notre intelligence se propose par-dessus tout dans
cet état primitif, tous les problèmes vraiment solubles étant presque envisagés comme indigne
de méditations sérieuses. On en conçoit aisément la raison ; car c'est l'expérience seule qui a
pu nous fournir la mesure de nos forces ; et, si l'homme n'avait d'abord commencé par en
avoir une opinion exagérée, elles n'eussent jamais pu acquérir tout le développement dont
elles sont susceptibles. Ainsi l'exige notre organisation.» (A. Comte, 1989, pp. 32-33).
Notre esprit, dans son premier âge, croit pouvoir résoudre les questions fondamentales
et c'est en acquérant sa maturité qu'il prend peu à peu conscience de la vanité de ses
prétentions premières. Mais, loin de les rejeter, il les utilise comme "point de ralliement à ses
Bernard Darley - IUFM d'Aquitaine 17/06/2010
12
efforts". Ainsi, les théories a priori, qui ne peuvent pas être dans la science positive tout en
étant indispensables à son fonctionnement, ne seraient, on appréciera la rhétorique, que les
reliques des premiers balbutiements de notre esprit.
Ce dernier passe par trois états qu'Auguste Comte définit de la façon suivante :
- l'état théologique ou fictif dans lequel l'esprit humain dirige essentiellement ses
recherches vers la nature intime des êtres, attribuant les causes premières et finales à des
agents surnaturels (dieux, esprits, etc.)
- l'état métaphysique ou abstrait qui ne serait qu'une simple modification générale du
premier, où les agents surnaturels sont remplacés par des forces abstraites, véritables entités
capable d'engendrer par elles-mêmes tous les phénomènes observés (la vertu dormitive de
l'opium ou la force vitale des molécules organiques)
- l'état scientifique ou positif où l'esprit humain, reconnaît l'impossibilité d'obtenir des
connaissances absolues et renonce à chercher les causes intimes des phénomènes, pour se
limiter à en découvrir les lois naturelles11 en combinant observation et raisonnement (A.
Comte, 1989, pp.29-30).
De l'idée d'un monde qui existe en soi, d'un monde que l'on peut, à la fois, connaître et
appréhender, l'esprit passe ainsi progressivement à l'idée d'un monde qui n'a d'autre réalité que
la constance des relations qui lient les phénomènes entre eux (les lois naturelles), toute autre
spéculation relevant de la métaphysique.
La science positive interdisant toute anticipation, et après avoir habilement résolu le
problème du cadre théorique propre à accueillir l'observation, reste à A. Comte à résoudre un
second problème : à quel moment pourra-t-on énoncer une loi sans qu'il y ait anticipation sur
la connaissance ? Ce problème, qui semble insoluble dans une démarche centrée sur
l'induction, permet à A. Comte de donner de la démarche scientifique une définition qui reste
aujourd'hui encore tout à fait recevable :
«Il ne peut exister, écrit-il, que deux moyens généraux propres à nous dévoiler, d'une
manière directe entièrement rationnelle, la loi réelle d'un phénomène quelconque (…),
l'induction ou la déduction. Or l'une et l'autre voie seraient certainement insuffisantes, même à
l'égard des plus simples phénomènes, aux yeux de quiconque a bien compris les difficultés
essentielles de l'étude approfondie de la nature, si l'on ne commençait souvent par anticiper
sur les résultats en faisant une supposition provisoire, d'abord essentiellement conjecturale,
quant à quelques-unes des notions mêmes qui constituent l'objet final de la recherche. De là
l'introduction, strictement indispensable, des hypothèses en philosophie naturelle. Sans cet
heureux détour (…), la découverte effective des lois naturelles serait évidemment impossible,
11Le terme de loi devant s'entendre ici comme une règle de fonctionnement et non pas comme fondement même des phénomènes.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
13
pour peu que le cas présentât de complication ; et, toujours, le progrès réel serait, au moins
extrêmement ralenti. Mais l'emploi de ce puissant artifice doit être constamment assujetti à
une condition fondamentale, à défaut de laquelle il tendrait nécessairement au contraire, à
entraver le développement de nos vraies connaissances. Cette condition, jusqu'ici vaguement
analysée, consiste à ne jamais imaginer que des hypothèses susceptibles, par leur nature, d'une
vérification positive, plus ou moins éloignée, mais toujours clairement inévitable, et dont le
degré de précision soit exactement en harmonie avec celui que comporte l'étude des
phénomènes correspondants. En d'autres termes, «les hypothèses vraiment philosophiques
doivent constamment présenter le caractère de simples anticipations sur ce que l'expérience et
le raisonnement auraient pu dévoiler immédiatement, si les circonstances du problème eussent
été plus favorables.» (A. Comte, Cours de philosophie positive, t. II (1835), 28ème leçon, in
Blanché pp.163-164, c'est moi qui souligne).
La rhétorique est, ici encore, remarquable : on anticipe ce qu'en fait on aurait
normalement dû voir si les circonstances avaient été plus favorables. Le péché est véniel et le
principe sauvegardé : l'imagination est bien subordonnée à l'observation.
Mais, exception faite de ce tour de passe-passe, la définition de la fonction et de la place
de l'hypothèse reste remarquablement claire : l'hypothèse (par opposition aux hypothèses ad
hoc) doit pouvoir être soumise à validation expérimentale et doit donc être formulée en
fonction du cadre très précis dans lequel elle est censée s'appliquer (ce qu'en d'autres termes
on appellerait une hypothèse contextualisée).
3.2 - CRITIQUE DU POSITIVISME D'AUGUSTE. COMTE
Le positivisme d'A. Comte se place résolument dans le cadre d'une doctrine universelle.
Sa philosophie positive est porteuse d'un message applicable à toute les sciences puisque,
quel que soit leur état présent, leur devenir inéluctable est d'évoluer vers l'état de science
positive. En ce sens aussi cette philosophie ne se veut d'aucune époque. Peu de chose donc la
sépare de la doctrine religieuse, comme le relève René Verdenal :
«Aussi Comte, bien avant l'invention de la religion positive, envisage-t-il d'emblée la
science avec le point de vue d'une mentalité religieuse : il y voit un rite de la pensée, une
autorité dogmatique, un consensus social, et, pour préserver cette image de la science, il
récuse l'interrogation théorique qui est frappée d'interdit.» (René Verdenal, 1973, p. 129).
C'est principalement dans cette interdiction de l'interrogation théorique que se pose le
problème principal du positivisme. En voulant limiter la prétention de la science aux seules
Bernard Darley - IUFM d'Aquitaine 17/06/2010
14
lois régissant les observables12 et en interdisant d'envisager le fonctionnement intime des êtres
vivants, A. Comte limite son champ d'investigation à la superficialité des phénomènes 13.
Outre son aspect dogmatique qui devrait le disqualifier immédiatement du champ de la
science, le positivisme ne résout en rien le problème de la construction des connaissances. La
question n'est pas qu'il fasse appel à un point de vue idéaliste du monde, même si l'heuristique
d'un tel point de vue peut se discuter (et les tenant du réalisme n'y manqueront pas).
L'articulation hypothèse-expérience, qui n'est pas un point de vue très original puisqu'on le
retrouve exprimé à l'identique chez les réalistes, n'est pas non plus en cause. La grande
faiblesse du positivisme est de vouloir dénier à la construction des théories, des modèles ou
des paradigmes (le mot importe peu ici), toute anticipation sur la connaissance et toute
réflexion sur les causes. Et les tours de passe-passe d'Auguste Comte n'ont fait que rejeter le
problème sans le résoudre, tout en reconnaissant la nécessité d'en passer par là.
Ces contradictions ne sont donc pas sans laisser planer quelques doutes sur l'aspect
purement fonctionnel du positivisme en tant que méthodologie heuristique. Émile Meyerson a
soutenu l'idée que les thèses positivistes-idéalistes vont à contre-fil de la pratique des savants
puisque ces derniers seraient, dans leurs actes, foncièrement réalistes. Et lorsqu'A. Comte
interdit, comme on l'a vu, de formuler des hypothèses sur «le mode de production des
phénomènes», c'est-à-dire sur les causes, Emile Meyerson14 montre que ces consignes n'ont,
en fait, jamais été écoutées (in J. Largeaut (a), 1984).
«Il est étrange, s'interroge J. Largeaut, que des scientifiques, qui tendent spontanément à
croire en la réalité de l'objet qu'ils étudient, finissent par admettre une dose d'idéalisme
supérieure à celle qui s'imposerait s'ils voulaient simplement rendre justice à la contribution
de l'intelligence au savoir. Prennent-ils en théorie le contre-pied de ce qu'ils font en
pratique ?». Le positivisme ne serait-il qu'une réécriture, par les scientifiques eux-mêmes ou
12 il se méfiait même du microscope comme moyen d'investigation et la définition qu'en donne Gaston Bachelard dans La formation de l'esprit scientifique («il faut comprendre que le microscope est le prolongement de l'esprit plutôt que de l'œil», p. 242) n'aurait fait qu'accroître ses préventions contre cet instrument. 13ce qui ne l'empêche pas d'énoncer cette magnifique théorie cérébrale : «L'ensemble de ces dix-huit organes cérébraux constitue l'appareil nerveux central, qui, d'une part, stimule la vie de nutrition, et, d'autre part, coordonne la vie de relation en liant ses deux sortes de fonction extérieures. Sa région spéculative communique directement avec les nerfs sensitifs, et sa région active avec les nerfs moteurs. Mais sa région affective n'a de connexités nerveuses qu'avec les viscères végétatifs, sans aucune correspondance immédiate avec le monde extérieur, qui ne s'y lie qu'à l'aide des deux autres régions. Ce centre essentiel de toute l'existence humaine fonctionne continuellement, d'après le repos alternatif des deux moitiés symétriques de chacun de ses organes. Envers le reste du cerveau, l'intermittence périodique est aussi complète que celle des sens et des muscles. Ainsi l'harmonie vitale dépend de la principale région cérébrale, sous l'impulsion de laquelle les deux autres dirigent les relations passives et actives, de l'animal avec le milieu» (Catéchisme Positiviste, in Kremer-Marietti, p. 138-139). Doit-on parler d'hypothèses ou de connaissances immédiatement perceptibles, A. Comte ne dit rien à ce sujet. 14De l'explication des sciences, 1927
Bernard Darley - IUFM d'Aquitaine 17/06/2010
15
par leurs historiographes, de la construction scientifique ? Cet extrait de l'ouvrage de Bruno
Latour et Stephen Woolgar15 pourrait en être une illustration.
«Nous insistons sur l'importance, écrivent-ils, de ne pas "réifier" le processus qui
conduit à affirmer l'existence d'une substance. On peut dire qu'un objet n'existe qu'en tant que
différence entre deux inscriptions. Un objet n'est autre qu'un signal qui se distingue du bruit
de fond général du domaine et de celui provoqué par les instruments. Fait encore plus
important, l'extraction d'un signal et la reconnaissance de son caractère distinctif dépendent de
la procédure lourde et coûteuse mise en œuvre pour disposer d'une base d'étalonnage stable.
Cette entreprise n'a pu aboutir que grâce à la main de fer d'un chercheur qui contrôlait
l'organisation des tâches routinières et avait veillé à ce que toutes les précautions pour assurer
la bonne marche de l'expérience au sein du laboratoire soient prises. Là encore, dire que le
TRF16 est une construction ne signifie pas qu'il faille mettre en doute sa solidité en tant que
fait. Cela indique qu'il faut prendre en compte toute la procédure, le lieu et la motivation qui
ont contribué à son établissement (…). Aux scientifiques qui soutiennent que les inscriptions
peuvent être des représentations ou des indicateurs d'une entité «extérieure» (out there), nous
avons opposé que ces entités n'étaient constituées que par l'usage même de ces inscriptions. Il
ne s'agit pas simplement du fait que les courbes indiquent la présence d'une substance, mais
plutôt de ce que les courbes manifestant la substance présentent des différences perceptibles.
Nous nous sommes abstenus pour ce faire d'utiliser les expressions : «La substance a été
découverte au moyen d'un bioétalonnage», ou «il s'est avéré que l'objet résulte de
l'identification de différences entre deux pics». Employer de telles expressions reviendrait à
véhiculer la fausse impression que certains objets sont présents a priori et qu'ils ne font
qu'attendre que des savants veuillent bien en révéler l'existence. Nous ne prêtons pas du tout
aux scientifiques l'intention d'utiliser des stratégies comme le dévoilement de vérités données
au départ, et jusque là dissimulées. En réalité les objets (dans ce cas les substances) se
constituent par le talent créatif des hommes de science. Il n'est pas sans intérêt de noter que
notre tentative d'écarter une terminologie qui implique l'existence préalable d'objets révélés
ensuite par les scientifique nous a conduit à certaines difficultés d'ordre stylistique. Nous
pensons que cela est précisément dû à la prévalence d'une certaine forme de discours dans les
descriptions des processus scientifiques. Il nous est par contre extrêmement difficile de
formuler des descriptions d'activités scientifiques qui n'entraînent pas l'impression fausse que
la science traite de la découverte (plutôt que de la créativité et de la construction). Il ne faut
pas seulement changer l'ordre des priorités, mais exorciser les formulations qui caractérisent
les descriptions du déroulement de la pratique de la science avant de prétendre mieux en
comprendre la nature». (in B. Latour, S. Woolgar, 1988.)
15B. Latour a passé deux ans dans le laboratoire de physiologie du Pr Guillemin à étudier, en ethnologue, le comportement des chercheurs. 16Tyreotropin Releasing Factor, facteur de libération de l'hormone thyréotrope sécrété par l'hypothalamus
Bernard Darley - IUFM d'Aquitaine 17/06/2010
16
On trouve, rassemblés ici, tous les ingrédients de la définition positiviste d'un fait
scientifique :
- l'objet n'a de sens que par rapport à l'observateur, et par rapport au contexte
historique et matériel dans lequel il a été décrit.
- rejet de l'existence a priori des objets dont les chercheurs vont "révéler" l'existence.
Ces objets n'ont pas d'existence en soi, ils ne sont que des constructions expérimentales.
Ainsi B. Latour et S. Woolgar prétendent-ils "exorciser" et "mieux comprendre la
nature" de la pratique de la science en la redéfinissant à l'intérieur d'un cadre positiviste, au
lieu de l'analyser telle qu'elle leur est présentée par les chercheurs. Ils rejettent ainsi les
positions réalistes de ces derniers sous prétexte qu'elles ne sont pas conforme à la pratique de
la science telle qu'ils entendent la définir (créativité plutôt que découverte). Si l'ensemble de
l'analyse est d'un rare intérêt et d'une grande pertinence, le procédé n'en reste pas moins
curieux et contribue à faire du positivisme un processus réinterprété plus qu'une option
scientifique réellement mise en pratique.
3.3 - CLAUDE BERNARD
Claude Bernard représente, en France au moins, la figure emblématique de la démarche
expérimentale. Son Introduction à l'étude de la médecine expérimentale publiée en 1865 va
très vite devenir un ouvrage de référence, «Bible de ceux qui n'ont pas de Bible» dira Jean
Rostand (cité par Grmek, p. 16) au point qu'il deviendra une source d'inspiration majeure pour
les rédacteurs des instructions officielles concernant l'enseignement de la biologie.
Le terme de "Bible", utilisé par Jean Rostand et quelques autres, s'il peut paraître
exagéré sur le fond, est assez juste quant à la forme. L'Introduction est, en effet, un ouvrage
complexe à analyser et, comme le montre bien Mirko Grmek (1973), riche en ambiguïtés. Au
point que Georges Canguilhem va jusqu'à proposer, pour le mieux comprendre et en apprécier
toute la profondeur, de le lire à rebours (Canguilhem, 1979, pp.127-171). Conseil qui, pour
surprenant qu'il paraisse s'avère, à l'usage, d'une grande pertinence. La méthodologie décrite
dans l'Introduction a, on le sait, été formalisée a posteriori. La lecture première des comptes
rendus d'expériences qui sont censés clore la démonstration du bien-fondé d'une telle
méthodologie permet de mieux en apprécier la rigueur mais aussi toutes les précautions
oratoires qui émaillent la première partie, et dont l'importance n'apparaît qu'après avoir pris
connaissance de la complexité de l'expérimentation en physiologie.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
17
3.3.1 - D'une apparente transparence…
Pour Claude Bernard, la règle de base, à respecter impérativement pour qui veut faire de
la science, est la suivante :
«La méthode expérimentale, considérée en elle-même, n'est rien d'autre qu'un
raisonnement à l'aide duquel nous soumettons méthodiquement nos idées à l'expérience des
faits.» (C. Bernard, 1989, p. 26)
On retrouve ici, clairement exprimé, le credo positiviste de la subordination de
l'imagination à l'observation. L'accent principal est donné. Le fondement de la méthode
expérimentale réside dans l'analyse des faits, ce que C. Bernard va répéter à loisir tout au long
de son ouvrage.
Reste à en préciser les étapes.
«Le savant complet est celui qui embrasse à la fois la théorie et la pratique
expérimentale. 1° il constate un fait ; 2° à propos de ce fait, une idée naît dans son esprit ; 3°
en vue de cette idée, il raisonne, institue une expérience, en imagine et en réalise les
conditions matérielles. 4° de cette expérience résultent de nouveaux phénomènes qu'il faut
observer et ainsi de suite. L'esprit du savant se trouve en quelque sorte toujours placé entre
deux observations : l'une qui sert de point de départ au raisonnement, et l'autre qui lui sert de
conclusion.» (ibid, p. 54)17
Les faits
La première observation va montrer les faits. Cette observation, fortuite dans la majorité
des cas, peut être provoquée par ce que C. Bernard appelle des «expériences pour voir», ainsi
nommées, écrit-il, «parce qu'elles sont destinées à faire surgir une première observation
imprévue et indéterminée d'avance, mais dont l'apparition pourra suggérer une idée
expérimentale et ouvrir une voie de recherche». (ibid, p. 51)
Expérience "pour voir" qu'il faut distinguer de "l'expérience". La première est une
observation simplement provoquée, la seconde une observation qui est à la fois provoquée et
organisée.
L'imprévisibilité de l'observation, qu'elle soit fortuite ou provoquée, est nécessaire ; une
bonne observation doit se faire sans idée préconçue.
17Ces étapes ont été rassemblées dans la formule O.H.E.R.I.C. (Observation- Hypothèse-Expérimentation-Résultats-Interprétation-Conclusion) par André Giordan dans l'analyse critique qu'il fait de la méthode expérimentale telle qu'elle est pratiquée dans les classes de l'enseignement secondaire. (Giordan, 1978)
Bernard Darley - IUFM d'Aquitaine 17/06/2010
18
«Les hommes qui ont une foi excessive dans leurs théories ou dans leurs idées (…) font
de très mauvaises observations. Ils observent nécessairement avec une idée préconçue, et
quand ils ont institué une expérience, ils ne veulent voir dans ses résultats qu'une
confirmation de leur théorie. Ils défigurent ainsi l'observation et négligent souvent des faits
très importants.» (ibid, p. 71)
De l'hypothèse à l'expérience
L'expérience ne pourra donc nous instruire sur les faits que si ceux-ci nous ont été
montrés dans toute leur pureté originelle par une observation vierge de toute idée préconçue.
Alors l'hypothèse naîtra, «toujours fondée sur une observation antérieure».
La caractéristique essentielle de l'hypothèse est
«qu'elle soit aussi probable que possible et qu'elle soit vérifiable expérimentalement. En
effet, si l'on faisait une hypothèse que l'expérience ne pût vérifier, on sortirait par cela même
de la méthode expérimentale pour tomber dans les défauts des scolastiques et des
systématiques.» (ibid, p. 66). C'est-à-dire le syllogisme et le rationalisme pur, coupés de tout
rapport avec le réel.
De l'hypothèse découlera l'expérience dont la mise en œuvre devra répondre à une
double exigence de rigueur intellectuelle dans sa construction et d'habileté dans sa réalisation
pratique.
«Il serait impossible de séparer ces deux choses : la tête et la main. Une main habile
sans la tête qui la dirige est un instrument aveugle ; la tête sans la main qui la réalise reste
impuissante.» (ibid, p. 27)
Témoin et contre-épreuve
Une construction expérimentale rigoureuse n'en reste pas moins insuffisante. Jusqu'ici
Claude Bernard n'a fait que formaliser ce qui pourrait passer pour des vérités premières
largement popularisées par les écrits positivistes. Là où il instaure une véritable révolution
dans la démarche expérimentale, c'est en introduisant d'une façon systématique l'idée de
témoin et de contre-épreuve.
«Si en effet on caractérise l'expérience par une variation ou par un trouble apporté dans
un phénomène, ce n'est qu'autant qu'on sous-entend qu'il faut faire la comparaison de ce
trouble avec l'état normal.» (ibid, p. 39)
L'expérience, observation provoquée et recherchée, n'a de sens que relativement à une
autre observation. La variation d'un phénomène ne peut être mise objectivement en évidence
que comparativement à un même phénomène, obtenu dans des conditions ne différant que par
la variation d'une de ses causes. L'état "normal" comme témoin d'un état "pathologique".
Bernard Darley - IUFM d'Aquitaine 17/06/2010
19
La contre-épreuve est autre. Elle est le fruit du doute qui doit être le compagnon de tous
les instants de l'expérimentateur, «doute philosophique qui laisse à l'esprit sa liberté et son
initiative.» (ibid, p. 71)
«Jamais en science la preuve ne constitue une certitude sans la contre-épreuve (…). La
contre-épreuve devient donc le caractère essentiel et nécessaire de la conclusion du
raisonnement expérimental. Elle est l'expression du doute philosophique porté aussi loin que
possible. C'est la contre-épreuve qui juge si la relation de cause à effet que l'on cherche dans
les phénomènes est trouvée. Pour cela, elle supprime la cause admise pour voir si l'effet
persiste. (…) la seule preuve qu'un phénomène joue le rôle de cause par rapport à un autre,
c'est qu'en supprimant le premier, on fait cesser le second.» (ibid, p. 91-92)
La mise en évidence de variations par rapport au témoin est nécessaire pour identifier la
cause mais elle n'est pas suffisante pour conclure définitivement quant à sa réalité. La preuve
finale appartient à la contre-épreuve.
Le principe du déterminisme
Toute la rationalité de la méthode expérimentale de Claude Bernard, et la contre-
épreuve en est une bonne illustration, repose sur le principe du déterminisme des phénomènes
physiologiques (puisqu'il limite ses prétentions à cette discipline). Tout phénomène a pour
origine un nombre fini de causes et toute altération de l'une de ces causes modifie le
phénomène en conséquence et d'une manière qui doit être prévisible, c'est-à-dire toujours
identique si l'altération est répétée.
«Ce qui veut dire, écrivent E. Balibar et P. Macherey à propos du déterminisme de
Claude Bernard, que la condition d'un phénomène une fois connue et remplie, le phénomène
doit se produire toujours et nécessairement à la volonté de l'expérimentateur. La négation de
cette proposition ne serait rien d'autre que la négation de la science même» ( E. Balibar et P.
Macherey, p. 284).
Chez Claude Bernard, ce déterminisme est érigé en principe immuable, pierre angulaire
de sa construction méthodologique, «principe absolu de toute théorie relative, invariant de
toutes les variations heuristiques» (Canguilhem, 1979, p. 170).
Ce n'est pas le déterminisme de Claude Bernard qui est intéressant en soi. Le XIXème
siècle, siècle de la pensée mécaniste, a vu, avec Laplace notamment, se développer un
déterminisme triomphant.
Claude Bernard ne fait donc qu'agréer aux idées de son temps. Ce qui est intéressant
c'est l'utilisation qu'il en fait pour monter une méthodologie rationnellement imparable. La
contingence n'ayant pas sa place dans un monde déterminé18, ce dernier est donc, sinon dans
ses objets au moins dans ses manifestations, accessible à la raison. Les mêmes causes devant
18autre rupture d'avec les positivistes?
Bernard Darley - IUFM d'Aquitaine 17/06/2010
20
produire les mêmes effets, la connaissance de ces dernières sera donc accessible par la
méthode qui consiste à les isoler et à les tester une à une.
La variation d'une cause devra entraîner, dans ses effets, des variations du phénomène
que l'on décrit par référence au phénomène "normal" (principe du témoin) ; la suppression de
la cause entraînera la suppression de ses effets (contre-épreuve).
Ce déterminisme s'inscrit dans une approche analytique d'un objet d'étude où «tous les
organes, tous les tissus ne sont qu'une réunion d'éléments anatomiques, et (où) la vie de
l'organe est la somme des phénomènes vitaux propres à chaque espèce de ces éléments» (C.
Bernard, 5ème leçon de physiologie opératoire in Canguilhem p. 150).
Formalisation de la méthode analytique qui va largement dominer la biologie durant un
siècle et qui le dispute encore largement aujourd'hui à l'approche holistique.
Rôle et devenir des théories
Pour Claude Bernard, les théories sont des «généralités ou des idées scientifiques qui
résument l'état actuel de nos connaissances».
Leur rôle est de servir de fondement aux raisonnements scientifiques. C'est grâce à elles
que les observations s'intègrent dans un contexte cohérent et permettent l'émergence de
nouvelles hypothèses dont les conclusions pourront élargir la portée de la théorie ou bien la
condamner. Car, pour paraphraser Claude Bernard, c'est leur devenir que de mourir au champ
d'honneur de l'expérimentation pour faire avancer la science.
«Le vrai progrès est de changer de théories pour en prendre de nouvelles qui aillent plus
loin que les premières jusqu'à ce qu'on en trouve une qui soit assise sur un plus grand nombre
de faits (…) Ce qui est important c'est d'avoir ouvert une voie nouvelle, car ce qui ne périra
jamais, ce sont les faits bien observés que les théories éphémères ont fait surgir ; ce sont là les
seuls matériaux sur lesquels l'édifice de la science s'élèvera un jour». (C. Bernard, p. 231)
Construction de la connaissance par englobement successif des théories qui deviennent,
par étapes régulières, de plus en plus générales.
Les faits, arbitres suprêmes, se plaçant au-dessus des théories et des hommes.
«Quand le fait qu'on rencontre est en opposition avec une théorie régnante, il faut
accepter le fait et abandonner la théorie, lors même que celle-ci, soutenue par de grands noms,
est généralement adoptée.» (ibid, p. 230)
Tout est donc clair, limpide. Les faits sont là, omniprésents. A nous de les saisir, de les
laisser faire naître en nous une idée avant de les intégrer peu à peu dans une construction
rationnelle dont les conséquences seront les variations d'un phénomène soumis au principe du
déterminisme, donc prévisibles, donc vérifiables expérimentalement. Des variations qui, si
elles sont vérifiées, permettront d'établir des relations de cause à effet et d'élaborer une théorie
du fonctionnement du phénomène. Alors pourquoi passer de cette apparente clarté……
Bernard Darley - IUFM d'Aquitaine 17/06/2010
21
3.3.2 - …à une ambiguïté certaine
Parce que le texte de Claude Bernard est bien plus riche que la précédente exégèse ne le
laisse paraître. Plus riche de ses ambiguïtés justement.
Si le canevas élaboré ci-dessus correspond à ce qui pourrait être considéré comme une
situation idéale du scientifique face à son objet, C. Bernard, pour avoir longuement pratiqué19,
n'est cependant pas dupe de la complexité de la réalité. Pas dupe mais néanmoins quelque fois
embarrassé par cette complexité qui s'insère si difficilement dans une méthode qu'il voudrait
universelle.
Le raisonnement
A son rappel incessant que les faits sont à la fois l'origine et la conclusion de toute
démarche expérimentale, on pourrait voir se profiler, derrière cette profession de foi, un strict
raisonnement inductif. De l'observation attentive, de l'accumulation des faits naîtra la loi,
c'est-à-dire le lien qui fera de cet accumulation un tout cohérent. Il n'en est rien. Si Claude
Bernard ne rejette pas l'induction a priori il semble néanmoins, comme outil de travail, lui
préférer nettement la déduction.
«On définit l'induction en disant que c'est un procédé de l'esprit qui va du particulier au
général20, tandis que la déduction serait le procédé inverse qui irait du général au particulier21.
Je n'ai certainement pas la prétention d'entrer dans une discussion philosophique qui serait ici
hors de sa place et de ma compétence ; seulement, en qualité d'expérimentateur, je me
bornerai à dire que dans la pratique, il me paraît bien difficile de justifier cette distinction et
de séparer nettement l'induction de la déduction. Si l'esprit de l'expérimentateur procède
ordinairement en partant d'observations particulières pour remonter à des principes, à des lois
ou à des propositions générales, il procède aussi nécessairement de ces mêmes propositions
générales ou lois pour aller à des faits particuliers qu'il déduit logiquement de ces principes.
Seulement quand la certitude du principe n'est pas absolue, il s'agit toujours d'une déduction
provisoire qui réclame la vérification expérimentale. (…) Les principes ou les théories qui
servent de base à une science, quelle qu'elle soit, ne sont pas tombés du ciel ; il a fallu
nécessairement y arriver par un raisonnement investigatif, inductif ou interrogatif comme on
voudra l'appeler. (…) l'induction a dû être la forme de raisonnement primitive et générale, et
les idées que les philosophes et les savants prennent constamment pour des idées a priori, ne
sont au fond que des idées a posteriori.(…) De tout cela je conclurai que l'induction et la
déduction appartiennent à toutes les sciences. Je ne crois pas que l'induction et la déduction 19à l'inverse de F. Bacon et, plus encore, d'A. Comte qui n'ont jamais été des expérimentateurs 20raisonnement qui est défini, dit-il plus loin, comme propre aux sciences expérimentales 21raisonnement qui serait, lui, propre aux mathématiques
Bernard Darley - IUFM d'Aquitaine 17/06/2010
22
constituent réellement deux formes de raisonnement essentiellement distinctes.» (ibid, p. 78-
81)
Et de joindre l'acte à la parole en associant induction et syllogisme dans la description
qu'il donne du raisonnement qui a servi de base à l'une de ses expérimentations :
«Le raisonnement inductif que j'ai fait implicitement est le syllogisme suivant : les
urines des carnivores sont acides ; or, les lapins que j'ai sous les yeux ont des urines acides ;
donc ils sont carnivores, c'est-à-dire à jeun.» (ibid, p. 217)
On est bien loin, ici, de la définition que donnera Karl Popper du raisonnement inductif.
Les faits
Les faits, omniprésents, semblaient se justifier par eux-mêmes. Petites tranches de réel
perçus par nos sens. Transcriptions brutes de la réalité, non polluées par une quelconque idée
préconçue.
Là encore la pensée de Claude Bernard est complexe et évite de tomber dans le mythe
simpliste du fait transparent.
«Les faits seuls sont réels dit-on, et il faut s'en rapporter à eux d'une manière entière et
exclusive. (…) Je pense que la croyance aveugle dans le fait qui prétend faire taire la raison
est aussi dangereuse pour les sciences expérimentales que les croyances de sentiment ou de
foi qui, elles aussi, imposent silence à la raison. En un mot, dans la méthode expérimentale
comme partout, le seul criterium réel est la raison.
Un fait n'est rien par lui-même, il ne vaut que par l'idée qui s'y rattache ou par la preuve
qu'il fournit. Nous avons dit ailleurs, que quand on qualifie un fait nouveau de découverte, ce
n'est pas le fait lui-même qui constitue la découverte, mais bien l'idée nouvelle qui en dérive ;
de même, quand un fait prouve, ce n'est point le fait lui-même qui donne la preuve, mais
seulement le rapport rationnel qui s'établit entre le phénomène et sa cause.» (ibid, p. 88)
Ainsi le fait ne vaut que par l'idée qui s'y rattache22. Si les faits sont les matériaux
nécessaires, «c'est la théorie qui constitue et édifie véritablement la science» (ibid, p. 56).
Un fait n'a donc pas de valeur en lui-même, il n'est intrinsèquement porteur d'aucune
information. Mais alors quid des premier et second principes qui veulent qu'un
expérimentateur constate un fait avant que ce dernier ne fasse naître une idée dans son esprit ?
L'idée a priori
22ou, comme le dit François Jacob : «Pour qu'un objet soit accessible à l'analyse, il ne suffit pas de l'apercevoir. Il faut encore qu'une théorie soit prête à l'accueillir.»(F. Jacob, p.24)
Bernard Darley - IUFM d'Aquitaine 17/06/2010
23
Cette idée, quelle est-elle ? Comment naît-elle ? D'où tire-t-elle son origine si le fait
seul n'est rien par lui-même ? La réponse, même si elle est décevante pour qui aspire à la
certitude, a, au moins, le mérite de la franchise :
«Il n'y a pas de règles à donner pour faire naître dans le cerveau, à propos d'une
observation donnée, une idée juste et féconde qui soit pour l'expérimentateur une sorte
d'anticipation intuitive de l'esprit vers une recherche heureuse. L'idée une fois émise, on peut
seulement dire comment il faut la soumettre à des préceptes définis et à des règles logiques
précises dont aucun expérimentateur ne saurait s'écarter ; mais son apparition a été toute
spontanée, et sa nature est tout individuelle. C'est un sentiment particulier, un quid proprium
qui constitue l'originalité, l'invention ou le génie de chacun.(…) La méthode expérimentale ne
donnera pas des idées neuves et fécondes à ceux qui n'en n'ont pas ; elle servira seulement à
diriger les idées de ceux qui en ont et à les développer afin d'en tirer les meilleurs résultats
possibles. (…) La méthode par elle-même n'enfante rien, et c'est une erreur de certains
philosophes d'avoir accordé trop de puissance à la méthode sous ce rapport.» (ibid, p. 66-67)
Il n'y a pas de méthode pour faire naître les idées et F. Bacon comme A. Comte, ici
clairement visés, peuvent revoir leur copie. Cette genèse de l'idée est un problème
complètement occulté dans l'Introduction et Claude Bernard semble même se complaire à
brouiller les cartes. Elle dérive de "l'idée préconçue" (appelée également "idée a priori" dans
la phrase suivante) que chaque homme se fait sur les phénomènes de la nature. «Cette
tendance est spontanée ; une idée préconçue a toujours été et sera toujours le premier élan
d'un esprit investigateur» (ibid, p. 59). A défaut d'une démonstration "expérimentale", on peut
essayer de s'en sortir par une simple affirmation "de bon sens".
L'idée a priori ou l'idée préconçue, puisque les deux termes sont employés
indifféremment, est donc un passage obligé, spontané, qui permet à l'expérimentateur de
savoir ce qu'il cherche et de comprendre ce qu'il trouve. Pour dépasser l'empirisme, et
l'accumulation des faits qui l'accompagne, le scientifique doit anticiper sa recherche par une
"intuition", un "sentiment"23. Mais cette capacité à l'intuition, à avoir des idées, hélas, ne
s'apprend pas ; elle est le propre de chacun et aucune méthode ne parviendra à rendre inventif
quelqu'un qui ne l'est pas. N'ayant jamais été en panne d'idées, le mystère de la création
scientifique n'est pas le problème de Claude Bernard qui se déclare incompétent à le traiter.
Seule l'intéresse la mise en acte rationnelle de cette idée et des productions qui en découlent.
Cette idée est donc une construction de l'esprit, une invention, ce qui lui confère deux
caractéristiques essentielles : en tant que construction elle doit conserver jusqu'au bout son
statut de conjecture, en tant que produit de l'esprit elle se doit d'être rationnelle.
«La méthode expérimentale (…) s'appuie successivement sur les trois branches de ce
trépied immuable : le sentiment (l'intuition), la raison et l'expérience.» (ibid, p. 60-61)
23Anticipation sur la connaissance qui est une autre entorse aux canons du positivisme
Bernard Darley - IUFM d'Aquitaine 17/06/2010
24
L'expérience étant, par principe, associée au doute. Une idée, une théorie n'est donc jamais
quitte d'une reformulation toujours possible.
Le doute
Nous avons vu plus haut comment un simple fait en désaccord avec une théorie devait,
sans rémission, entraîner la chute de cette dernière. Ce principe, clairement établi, est rappelé
en de multiples occasions. Il n'est d'ailleurs pas sans anticiper sur la théorie de la réfutation
développée soixante dix ans plus tard par Karl Popper24.
Mais pourquoi le doute ne devrait-il pas, dans certaines occasions, s'appliquer aux faits
eux-mêmes ? Pourquoi seules les théories devraient-elles y être soumises ? Pourquoi remettre
en cause les unes plus que les autres ? Surtout quand on a l'intuition qu'elles sont bonnes ?
Le récit qu'il fait de son expérimentation sur le diabète provoqué chez le lapin, est, à ce
sujet, un beau démenti à ce principe pourtant si souvent répété.
«Cette expérience, écrit-il, consiste à rendre un animal artificiellement diabétique au
moyen de la piqûre du plancher du quatrième ventricule. J'arrivai à tenter cette piqûre par
suite de considérations théoriques que je n'ai pas à rappeler ; ce qu'il importe seulement de
savoir ici, c'est que je réussis du premier coup, c'est-à-dire que je vis le premier lapin que
j'opérai devenir très fortement diabétique. Mais ensuite il m'arriva de répéter un grand nombre
de fois (huit ou dix fois) cette expérience sans obtenir le premier résultat. Je me trouvais dès
lors en présence d'un fait positif et de huit faits négatifs.» (ibid, p.243)
Va-t-il jeter aux orties cette théorie huit fois démentie ? Remettre en cause ce fait positif
si curieusement obtenu lors d'une première tentative et que l'expérience technique acquise au
cours des suivantes a été incapable de reproduire ? La réponse est catégorique.
«Il ne me vint jamais dans l'esprit de nier ma première expérience positive au profit des
expériences négatives qui la suivirent. (…) les faits négatifs considérés seuls n'apprennent
jamais rien. Tous les jours on voit des discussions qui restent sans profit pour la science parce
qu'on n'est pas assez pénétré de ce principe, que chaque fait ayant son déterminisme, un fait
négatif ne prouve rien et ne saurait détruire un fait positif.» (ibid, p. 244-245)
Tous les jours, également, on voit des discussions autour de "faits positifs" qui s'avèrent
ensuite avoir pour origine une erreur de manipulation ou d'interprétation. Il s'est trouvé que,
dans ce cas précis, Claude Bernard ait eu raison, mais cela importe peu. Ce qui est intéressant,
plus que son raisonnement peu convaincant, c'est son aveu d'avoir préféré sa théorie aux faits
qui s'accumulaient contre elle, d'avoir préféré l'idée aux objets. Certes, dit-il avec raison, il
24«L'hypothèse est un instrument dont il faut se servir pour arriver à la découverte de la vérité mais auquel il ne faut pas tenir. Il faut chercher à renverser les hypothèses, c'est-à-dire leur trouver la contre-épreuve.» (Cl. Bernard, Manuscrit 24d, f. 72, in Grmek p. 33). On n'est pas loin, ici, de la définition que donne Karl Popper de l'activité scientifique.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
25
convient de ne pas s'entêter et savoir abandonner une théorie. Mais il ne précise pas au bout
de combien de tentatives malheureuses on doit s'y résigner25.
3.3.3 - En résumé
S'il n'a pas résolu le problème séculaire de la genèse de la connaissance, de l'émergence
de l'idée heuristique, Claude Bernard a grandement contribué à donner à la recherche
expérimentale en biologie le cadre méthodologique qui lui faisait défaut.
Il affirme la primauté de l'idée sur le fait, seul moyen de construire un système explicatif
rationnel. Si l'idée est le fondement du raisonnement expérimental, elle n'en n'est pas pour
autant le socle immuable. Et le fait ne valant que par l'idée qui s'y rattache, l'un comme l'autre
peuvent et doivent être systématiquement remis en cause. Bien avant Karl Popper, Claude
Bernard érige donc la réfutation en règle méthodologique.
Cette recherche de réfutation d'une idée ou d'une hypothèse n'est rationnellement
possible qu'en appliquant, de manière systématique, l'expérimentation témoin et la contre-
épreuve.
Enfin, en reconnaissant volontiers ne pas avoir toujours trouvé ce qu'il cherchait, il
affirme la règle d'anticipation. Un résultat expérimental ne vaut que relativement à ce que
l'hypothèse avait laissé prévoir.
On peut maintenant lui reprocher sa référence aux faits qui peut paraître quasi
obsessionnelle. Outre qu'elle est fréquemment tempérée par la mise en avant de l'idée et de
l'hypothèse comme structures heuristiques, il faut également replacer l'Introduction dans son
contexte historique et social. Georges Canguilhem montre bien comment Claude Bernard se
trouvait en rupture avec une idée essentiellement descriptive de la médecine encore largement
défendue au moment de la sortie de son livre. Compte tenu de l'importance que revêtait
l'observation dans cette médecine descriptive, la référence aux faits était donc un passage
obligé pour qui voulait convaincre que l'on pouvait en faire autre chose que des catalogues.
Un savant, aussi prestigieux soit-il, doit parfois savoir composer avec son environnement
social.
4 - LE XXème SIECLE
25Le cas Benvéniste est très voisin. Quelques résultats positifs contre un très grand nombre de résultats négatifs n'ont pas entamé la conviction de ce chercheur. Reste à savoir si, comme à C. Bernard, le temps lui donnera raison.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
26
4.1 - KARL POPPER
La convergence des points de vue exprimés par Karl Popper et Claude Bernard est
intéressante pour deux raisons.
La première est que les écrits de Popper se situent à un moment de crise
épistémologique profonde pour la physique, comparable, dans une certaine mesure, avec la
crise qui a frappé la biologie dans la seconde moitié du XIXème siècle. La relativité, la
mécanique quantique et (surtout ?) le principe d'incertitude d'Heisenberg bousculent la façon
de voir et de comprendre le monde.
Popper, après un court passage parmi eux, s'oppose aux néopositivistes logiques du
Cercle de Vienne (Carnap, Reichenbach, pour ne citer que les principaux). Pour ces derniers
la science se constitue à partir de bases empiriques (ou propositions protocolaires) que sont
les constats d'observation relatant les expériences propres de l'observateur (solipsisme
méthodologique) (J. Bouveresse, p. 91). Le monde n'étant pas accessible en soi, la seule
approche que l'on peut en avoir passe par notre expérience propre et les relations que l'on peut
en faire. Le solipsisme méthodologique élève au rang de méthode l'approche subjective que
nos sens nous donnent du monde. Une fois croisés, ces constats d'observation vont faire
apparaître des constantes, les lois, qui seront la connaissance objective. Ces lois ne seront plus
universelles mais seulement probables, leur probabilité étant d'autant plus grande qu'elles sont
vérifiées plus souvent.
Ce recours à la notion de savoir probable a été rendu nécessaire, entre autre, par
l'énoncé du principe d'incertitude d'Heisenberg qui interdit de connaître à la fois, à un moment
donné, la vitesse et la position d'un électron. Toute tentative pour affiner la mesure de l'une
diminuant la précision de la mesure de l'autre.
4.1.1 - Le problème du raisonnement par inférence inductive
C'est principalement sur ce terrain que Karl Popper va centrer son attaque contre la
philosophie du Cercle de Vienne en montrant que le principe d'induction qui la sous-tend
n'est, en aucune manière, une pratique heuristique.
Popper définit l'induction comme «une inférence qui passe d'énoncés singuliers tels que
les comptes rendus d'observation ou d'expérience, à des énoncés universels, tels des
hypothèses ou des théories» (Popper, 1973, p. 23). C'est, dit Reichenbach, «le moyen par
lequel la science décide de la vérité. Pour être plus exacts, nous devrions dire qu'il sert à
décider de la probabilité. Car il n'est donné à la science d'atteindre ni la vérité ni la fausseté,
les énoncés scientifiques ne peuvent qu'atteindre des degrés continus de probabilité dont les
limites supérieures et inférieures, hors d'atteinte, sont la vérité et la fausseté.» (Reichenbach in
Bernard Darley - IUFM d'Aquitaine 17/06/2010
27
Popper, 1973, p. 25-26) Voilà donc définis le cadre et les objectifs de cette pratique inductive
du positivisme logique.
Popper développe principalement deux arguments pour réfuter le caractère opératoire de
l'induction comme pratique susceptible de faire évoluer la science.
Le premier concerne l'impossibilité constitutionnelle de cette pratique à prétendre
énoncer des lois universelles. En effet, si le croisement de nombreuses observations permet de
faire apparaître une régularité quant à l'apparition d'un phénomène donné, la blancheur du
plumage des cygnes pour reprendre l'exemple favori de Popper, elle interdit, par sa définition
même, de prétendre que tous les cygnes sont blancs tant que l'on n'a pas constaté le fait
jusqu'au dernier cygne existant. Compte tenu des mutations toujours possibles, la loi ne sera
définitivement fondée qu'à la mort du dernier cygne. Tous les cygnes étaient blancs,
requiescat in pace.
Ce mode de raisonnement entraîne une régression à l'infini à l'image d'un tonneau des
Danaïdes qui absorberait validation après validation sans jamais pouvoir prétendre à
l'universalité. C'est le caractère non opérant de cette régression à l'infini, indissociable de
l'induction, que Karl Popper dénonce comme impropre à engendrer autre chose qu'une quête
qui n'aurait plus rien de scientifique, dans la mesure où elle en arrive à se justifier par le fait
même qu'elle doit être.
Le passage d'une induction orthodoxe à une induction à caractère probabiliste affaiblit
cette réfutation. La loi universelle devient une inférence probable dont la probabilité croît à
mesure que le nombre de constats positifs croît. C'est la définition qu'en donne Reichenbach.
Alan Chalmers, qui rejoint Popper dans la réfutation de l'induction, avance, à ce propos,
un argument formel. Puisque les néopositivistes parlent de probabilité revenons à la définition
de ce concept mathématique. La probabilité pour qu'un évènement se produise est le rapport
du nombre de cas favorables sur le nombre de cas possibles. Dans le cas d'une inférence
probable, le nombre de cas favorables est égal au nombre de constats d'observation déjà
effectués, mais le nombre de cas possibles reste infini. Si bien que, quelle que soit la taille du
premier, son rapport par le second restera toujours nul (Chalmers, 1988, p.38). En
conséquence, la probabilité d'une loi universelle énoncée par une inférence inductive ne peut
être que nulle. Si une loi n'est ni certaine ni même probable quel crédit d'objectivité peut-on
lui accorder ?
Pour Popper la réponse est claire : aucun. Une loi est une construction intellectuelle, elle
est donc, par essence même, subjective. Seule sa réfutation est objective.
C'est sur ce flan que va porter l'attaque de Popper contre les lois probabilistes des
néopositivistes. Pour Popper le critère de scientificité d'un énoncé quel qu'il soit, théorie, loi
Bernard Darley - IUFM d'Aquitaine 17/06/2010
28
ou simple hypothèse, réside dans sa réfutabilité26. Un énoncé non réfutable est sans intérêt
puisqu'il n'a ni capacité prédictive ni capacité explicative. Ainsi, un énoncé dont on va dire
qu'il est vrai à 80% (en admettant, bien sûr, que l'on ait trouvé un artifice mathématique pour
calculer cette probabilité) ne pourra jamais être démenti. Tout juste pourra-t-on ajuster la
probabilité au gré de ses fluctuations mais la prédiction restera toujours un événement
aléatoire, sans que l'on puisse dire s'il va ou non se réaliser. Cet énoncé n'expliquera rien non
plus, sinon que s'il se produit c'est que nous étions bien dans les 80% des cas, mais s'il ne se
produit pas c'est que nous sommes dans les 20% d'échecs prévus ; l'énoncé devient donc
irréfutable car toujours valide quelque soit le résultat expérimental.
Une telle loi ne peut donc être acceptable en tant que loi empirique :«dans la mesure où
ils ne sont pas falsifiables, les énoncés de probabilité sont métaphysiques et dépourvus
d'importance empirique.» (Popper, 1973, p. 206).
Pour Popper, le principe de l'induction est donc discrédité à tous points de vue :
«L'induction, à savoir une inférence fondée sur la multiplicité des observations est un
mythe. Elle n'est ni une donnée psychologique, ni un fait de la vie courante, ni un phénomène
qui ressortit à la démarche scientifique.
La démarche réelle de la science consiste à opérer à l'aide de conjectures : à aller droit à
la conclusion, et même, souvent (ainsi que Hume et Boren, par exemple, en on fait la
remarque), après une seule observation. Dans le domaine scientifique, la répétition des
observations et des expériences sert à tester les conjectures et les hypothèses formulées, elle
constitue donc une tentative de réfutation.» (Popper, 1985, p. 89)
4.1.2 - Le principe de réfutation
Plus que la critique de l'induction, c'est le principe de la réfutation qui a donné son
originalité à la pensée de Karl Popper.
Un énoncé universel n'est jamais vérifiable empiriquement puisque l'on ne pourra
jamais tester tous les cas possibles. Il ne peut être que réfuté. «Le critère de la scientificité
d'une théorie réside dans la possibilité de l'invalider, de la réfuter ou encore de la tester»
(Popper, 1985, p. 65).
Un énoncé non réfutable, ou non testable, est soit métaphysique ("le mal de tête a pour
origine des esprits malfaisants"), soit tautologique ("tous les chats appartiennent à la classe de
félidés"), soit conditionnel ("les baleines sont condamnées à disparaître, sauf si on arrête de
les chasser"). En aucun cas il ne présente d'intérêt puisqu'en se mettant à l'abri de la réfutation
il interdit tout questionnement. Les énoncés non réfutables sont donc toujours vrais (énoncés
26ou sa capacité à être falsifié selon la traduction que l'on donne aux écrits de Popper
Bernard Darley - IUFM d'Aquitaine 17/06/2010
29
métaphysiques ou tautologiques), ou jamais totalement faux puisqu'une clause ad hoc leur
garantit toujours une certaine véracité (énoncés conditionnels).
Pour K. Popper, le caractère scientifique d'une assertion tient en sa propriété d'être
réfutable. Peu importe que l'assertion soit, ou non, testée ; seul importe le fait qu'elle puisse
l'être. C'est sur la base de cette propriété qu'il définit le principe de démarcation entre science
et pseudo-sciences.
Une des conséquences du principe de réfutation est qu'il interdit l'accès à la
connaissance ultime puisque cette dernière serait irréfutable.
Ce principe de réfutation peut être interprété comme la recherche incessante des limites
du modèle associé à l'hypothèse. Lorsque l'une des limites est atteinte, lorsque le modèle est
"réfuté", il faut le reformuler afin d'élargir à nouveau son domaine d'application vers des
limites qu'il conviendra, à nouveau, de rechercher. Imre Lakatos critique cette procédure à
laquelle il reproche de pouvoir se passer de preuve en taillant, pour chaque conjecture, un
domaine de validité sur mesure. «La preuve est oubliée dans votre argumentation, écrit-il ; en
cherchant à détecter le domaine de validité de la conjecture, vous semblez n'avoir pas du tout
besoin de la preuve. Vous ne croyez sûrement pas que les preuves sont superflues ?» (I.
Lakatos, 1984, p. 37).
Cette critique n'est recevable que dans une science qui peut prétendre à l'universalité de
ses lois27. La biologie ne pouvant, en toute rigueur, avoir cette prétention, la définition de
domaines de validité pour les modèles qu'on lui applique fait donc partie des conditions
d'existence de ses théories. Au chercheur de faire que ce domaine soit, pour une formulation
donnée, aussi large que possible afin que les théories remplissent leur rôle unificateur. Les
preuves, à l'image des lois, ne pourront avoir de prétention à l'universalité ; et elles ne sont
pas oubliées puisque ce sont elles qui valideront les domaines d'application.
Karl Popper rejoint donc Claude Bernard dans l'idée que rien ne doit être tenu pour
acquis et que tout postulat scientifique n'est qu'une conjecture qui peut être invalidée à tout
moment par un fait empirique. Mais là où le second en faisait une règle parmi d'autres, le
premier érige la réfutabilité en principe majeur. Se livrer à une activité scientifique se résume,
pour K. Popper, à chercher à réfuter nos théories.
«Il n'existe pas de démarche plus rationnelle que de procéder par essais et erreurs, par
conjecture et réfutation : de proposer hardiment des théories, de consacrer tous nos efforts à
faire apparaître celles qui sont erronées et d'y souscrire par provision lorsque nos tentatives
pour les critiquer n'ont pas abouti.» (Popper, 1985, p. 87)
27Imre Lakatos était mathématicien.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
30
Mais, à l'égal du raisonnement de Claude Bernard, le principe de réfutabilité pèche par
une trop grande rigueur.
«Si les conclusions singulières se révèlent acceptables, ou vérifiées, la théorie a
provisoirement réussi son test : nous n'avons pas trouvé de raison de l'écarter. Mais si la
décision est négative (…), si les conclusions ont été falsifiées, cette falsification falsifie
également la théorie dont elle avait été logiquement déduite.» (Popper, 1973, p. 29)
Appliqué tel qu'il est énoncé, ce principe interdit, de fait, toute alternative et transforme
le travail du chercheur en un travail mécanique de mise au rebut ou de validation provisoire
de toutes les idées envisageables, le seul critère conférant à une idée un caractère de
scientificité étant qu'elle soit testable. Faiblesse qu'Alan Chalmers n'a pas manqué d'exploiter
dans la critique qu'il fait des thèses de Popper (Chalmers, 1984).
Popper avait cependant répondu par avance à ces critiques en écrivant (Popper, 1973, p.
51) qu'on ne pouvait se débarrasser d'une hypothèse proposée, et reconnue comme
scientifiquement acceptable, sans "bonnes raisons". Les bonnes raisons étant sa réfutation,
bien entendu, mais aussi son remplacement par une autre hypothèse. Cette obligation de
remplacement permettant d'éviter que la recherche scientifique ne se transforme en un simple
jeu de massacre.
Il n'empêche que le principe d'exclusion automatique associé à la réfutation fragilise
dangereusement les hypothèses quelles qu'elles soient en les mettant à la merci du premier cas
particulier qui se présente.
Arrivé à ce point du raisonnement de Popper deux problèmes se posent : comment
conserver au principe de réfutation un caractère opératoire, et enfin, question sans cesse
posée, comment naissent les idées ?
4.1.3 - Probabilités et réfutation
Ce serait faire injure à Karl Popper que de penser qu'une telle faiblesse dans son
raisonnement ait pu lui échapper.
Si donc, une conjecture est fréquemment réfutée elle doit être abandonnée car elle ne
peut alors prétendre à couvrir un domaine de validité suffisant pour lui conférer un intérêt
scientifique. Mais, à l'inverse, si une conjecture n'est qu'exceptionnellement réfutée, Karl
Popper propose de faire jouer la clause des improbabilités extrêmes. Un événement très
improbable pourra être négligé ; ce qui permet de sauver la conjecture pour un temps encore.
«La règle selon laquelle il faut négliger les improbabilités extrêmes concorde avec
l'exigence d'objectivité scientifique (…). Ce que j'affirme, c'est que des événements de ce
genre (très improbables) ne seraient pas des effets physiques parce que, en raison de leur
extrême improbabilité ils ne sont pas réitérables à volonté.» (Popper, 1973, p. 205)
Bernard Darley - IUFM d'Aquitaine 17/06/2010
31
Si Popper ne précise pas où commence l'improbabilité qui permet de dénier à un fait de
réfuter une conjecture c'est que cette mesure, arbitraire s'il en est, est fonction de l'état de la
science concernée à un moment donné et doit être ramené à la largeur du domaine
d'application couvert par la conjecture. Plus le domaine d'application de la conjecture sera
étroit, plus la probabilité pour qu'elle soit réfutée sera faible, mais aussi moins grand sera son
intérêt pour la science. A l'inverse plus le domaine d'application sera étendu, plus la
conjecture deviendra réfutable, mais aussi, plus elle deviendra génératrice de questionnement,
et donc de savoirs potentiels. Règle que Popper formule ainsi :
«la probabilité d'un énoncé (ou d'un ensemble d'énoncés) est plus grande lorsque le
contenu de l'énoncé est moindre : elle est en proportion inverse du contenu ou de la capacité
déductive de l'énoncé et, partant, de son pouvoir explicatif.» (Popper, 1985, p. 96)
Ce principe du rejet des événements improbables est particulièrement intéressant en
biologie où, du fait du mode de transfert des informations génétiques, la variabilité est, en
principe, sinon infinie du moins extrêmement grande. Une modélisation qui envisagerait de
prendre en compte tous les cas possibles ne pourrait être que tautologique ou bien tellement
amendée d'hypothèses ad hoc qu'elle n'en serait pas plus opérante. En pratiquant ce principe
de l'exclusion on définit ainsi un champ d'application à l'intérieur duquel un modèle pourra
prendre son sens sans risquer une réfutation finalement peu justifiée.
Mais au-delà de son intérêt indéniable, cette règle de l'exclusion des événements
improbables n'en reste pas moins ce qui permet au principe de réfutation de ne pas être réfuté.
N'est-ce pas justement là une de ces hypothèse ad hoc que Popper dénonce si fort par
ailleurs ?
4.1.4 - La genèse des conjectures
Comme chez Claude Bernard, la question est rejetée comme non pertinente. Pour
Popper une assertion, quelle qu'elle soit, est valable à partir du moment où elle souscrit au
principe de la réfutation. Comment et à partir de quoi est-elle apparue est une question sans
intérêt. Ce qui importe dans une idée ce n'est pas d'où elle vient, mais ce qu'elle apporte.
Voici ce qu'en dit Karl Popper :
«Aux questions proposées, "d'où tenez-vous ce savoir ? Quelle est la source ou le
fondement de votre assertion ? Quelles sont les observations qui vous y ont conduit ?", je
répondrais par conséquent ainsi : "Je ne sais pas : cette affirmation n'était qu'une pure et
simple supposition. Peu importe la source ou les sources qui ont pu lui donner naissance, les
sources éventuelles abondent, et il se pourrait fort bien que je n'ai pas même idée de la moitié
Bernard Darley - IUFM d'Aquitaine 17/06/2010
32
d'entre elles. D'ailleurs, en tout état de cause, les origines et les généalogies ont peu
d'incidence sur la vérité. En revanche, si vous vous intéressez au problème que j'ai tenté de
résoudre par le biais d'une assertion provisoire, vous pouvez me seconder dans ma tâche en
soumettant celle-ci à une critique aussi rigoureuse que possible ; et si vous parvenez à mettre
au point un test expérimental qui, selon vous, est susceptible de réfuter l'affirmation, c'est
volontiers et dans toute la mesure de mes forces que je contribuerai à cette entreprise de
réfutation".» (Popper, 1985, p. 52)
Une assertion ne vaut donc que par ce qu'elle apporte en tant qu'hypothèse réfutable. Associer
la valeur d'une assertion à la connaissance de son origine c'est, dit Popper, conforter cette
croyance sans fondements qu'une connaissance tire sa légitimité de son pedigree. De plus, si
l'on considère que chercher à définir les origines d'une assertion est d'avance voué à l'échec,
dans la mesure où cela conduira à remonter aux origines mêmes de la connaissance, on
comprend que c'est un problème sans intérêt qui ne mérite pas même d'être débattu.
Seul importe, en fait, le caractère scientifique de l'assertion, c'est-à-dire sa réfutabilité,
définissant ce que K. Popper appelle le principe de démarcation entre science et pseudo-
sciences.
4.1.5 - La règle de l'intersubjectivité
En érigeant la réfutation au rang de principe, Karl Popper dénonce l'idée que
l'objectivité de la science s'identifie à l'objectivité du savant. «L'objectivité des sciences de la
nature et des sciences sociales ne se fondent pas sur l'état d'esprit impartial qu'on trouverait
aux hommes de science, mais simplement sur le caractère public et compétitif de l'entreprise
scientifique. (…) Nous ne pouvons pas enlever à l'homme de science sa partialité sans lui
enlever du même coup son humanité, de même nous ne pouvons pas interdire ou détruire ses
jugements de valeurs sans le détruire à la fois comme homme et comme homme de science»
(De Vienne à Francfort, la querelle allemande des sciences sociales, in Baudouin, pp. 43-44).
Le choix de l'assertion est un choix que Popper revendique comme subjectif puisqu'il se
refuse à le justifier. Seule va importer la confrontation critique des points de vue à laquelle
elle va être soumise. C'est de cette confrontation "intersubjective", entre points de vue
d'hommes de science également subjectifs, que se dégagera l'objectivité de la science.
L'objectivité n'est pas le fait d'un individu mais une construction sociale née du débat initié
par le principe de réfutation.
Pour être objective, une assertion doit pouvoir être soumise à des tests. «Je refuse, écrit-
il, d'accepter l'idée selon laquelle il y aurait des énoncés scientifiques que nous devons
accepter comme vrais, avec résignation, simplement parce qu'il ne semble pas possible, pour
Bernard Darley - IUFM d'Aquitaine 17/06/2010
33
des raisons logiques, de les soumettre à des tests.» (Popper, 1973, p. 45). Au principe de
réfutabilité se superpose donc le principe de l'intersubjectivité. Une assertion, si réfutable
qu'elle soit, n'est rien, d'un point de vue scientifique, si elle n'est pas rendue publique et
largement débattue.
4.1.6. - Les théories à l'origine du sens des énoncés d'observation
Mais si Popper ne dit rien quant à l'origine des assertions, des hypothèses ou des
théories, il est, en revanche, très catégorique sur le fait qu'elle ne peuvent, en aucun cas,
provenir d'une observation "pure". «Toute observation implique une interprétation produite à
la lumière du savoir théorique ; un savoir émanant de l'observation pure, à l'abri de toute
théorie -à supposer qu'un tel savoir pût exister- serait parfaitement stérile et dépourvu de tout
intérêt.» (Popper, 1985, p 46)
K. Popper fonde donc son analyse de la construction de la science sur le principe qu'une
observation se fait toujours à la lumière de théories. «Seul le préjugé inductiviste, dit-il,
conduit à penser qu'il pourrait y avoir un langage phénoménal, exempt de théories et
susceptible d'être distingué d'un langage théorique.» (Popper, 1973, p. 57).
Ces théories, ces postulats, ces conjectures, font, dit-il, partie de notre langage. Ce ne
sont, pour reprendre une expression d'A. Pichot «qu'un peu de sens commun formalisé»
(Pichot, 1980, p.20). Après s'être assuré que cette "théorie" respecte le principe de la
démarcation, c'est-à-dire qu'elle est réfutable, elle nous servira à interpréter nos observations
en même temps que ces observations participeront, ou non, à sa réfutation. Peu importe d'où
viennent les théories, ce qui les génère ou qui les fonde. Ce qui donne à une théorie, ou à une
hypothèse, son caractère scientifique réside dans sa capacité à être remise en cause. Faire de la
science consiste alors à mettre en œuvre une méthodologie rigoureuse pour en explorer les
qualités explicatives et prédictives. Tant que les limites de ces dernières ne seront pas
atteintes, la théorie ne pourra pas être réfutée.
On retrouve donc ici à la fois le principe de «l'idée juste et féconde» et de la nécessité
du doute permanent qui doit l'accompagner énoncé plus haut par Claude Bernard. Mais, ce
qui, pour ce dernier, est une attitude, une soumission nécessaire du scientifique, devient un
principe fondateur, un critère de démarcation entre science et non-science chez K. Popper.
Au-delà de cette divergence, C. Bernard et K. Popper se rejoignent encore dans leur
démarche visant à proposer, pour la science en général, une méthode universelle et détachée
des contingences de l'histoire, applicable aussi bien aux théories passées que futures. Cette
position est fortement critiquée par les épistémologues relativistes qui analysent les activités
scientifiques comme des composantes sociologiques irrévocablement liées à une période
Bernard Darley - IUFM d'Aquitaine 17/06/2010
34
historique donnée, ce qui, pour ces derniers, rend totalement illusoire l'idée d'universalité
d'une méthode dont la propriété première serait d'être obsolète sitôt énoncée. J'y reviendrai
plus bas lorsque je développerai les points de vue de Thomas Kuhn et de Paul Feyerabend.
J'aimerais, auparavant, souligner certains points de convergence, mais aussi de divergence
entre Karl Popper et Gaston Bachelard
4.2 - DU RATIONALISME CRITIQUE DE KARL POPPER AU RA TIONALISME
APPLIQUE DE GASTON BACHELARD
G. Bachelard et K. Popper convergent sur un certain nombre de points, en particulier
dans la volonté qu'ils expriment de réconcilier empirisme et rationalisme et dans leurs
attaques virulentes de l'inductivisme.
«Si l'on pouvait, écrit G. Bachelard dans La philosophie du non, traduire
philosophiquement le double mouvement qui anime actuellement la pensée scientifique, on
s'apercevrait que l'alternance de l'a priori et de l'a posteriori est obligatoire, que l'empirisme
et le rationalisme sont liés, dans la pensée scientifique, par un étrange lien, aussi fort que celui
qui unit le plaisir et la douleur. En effet, l'un triomphe en donnant raison à l'autre ;
l'empirisme a besoin d'être compris ; le rationalisme a besoin d'être appliqué. Un empirisme
sans lois claires, sans lois coordonnées, sans lois déductives ne peut être ni pensé, ni enseigné
; un rationalisme sans preuves palpables, sans application à la réalité immédiate ne peut
pleinement convaincre. On prouve la valeur d'une loi empirique en en faisant la base d'un
raisonnement. On légitime un raisonnement en en faisant la base d'une expérience. »
(Bachelard, La philosophie du non, p. 4)
Bachelard dénonce, de ce fait, l'induction naïve qui interdit toute idée a priori, comme
si «devant le mystère du réel, l'âme peut se faire, par décret, ingénue» (Bachelard, 1983, p.
14). La connaissance n'est jamais immédiate, l'observation est toujours trompeuse et l'on ne
peut comprendre le réel si l'on n'a pas, au préalable, critiqué et désorganisé les intuitions
premières. Les faits ne sont rien par eux-mêmes, c'est l'interprétation que l'on en donne qui
leur confère quelque intérêt. «On dit volontiers que les anciens ont pu se tromper sur
l'interprétation du fait, mais que, du moins, ils ont vu -et bien vu- les faits. Or il faut, pour
qu'un fait soit défini et précisé, un minimum d'interprétation. Si cette interprétation minima
correspond à une erreur fondamentale, que reste-t-il du fait ?» (Bachelard, 1983, p 44)
Sans la raison l'observation n'est rien, la raison seule permet d'aller au-delà de
l'expérience sensible pour la transformer en expérience scientifique, c'est-à-dire en expérience
qui contredit l'expérience sensible dont elle est issue. «C'est en termes d'obstacle, écrit-il, qu'il
faut poser le problème de la connaissance scientifique» (Bachelard, 1983 p. 13). Ce n'est donc
Bernard Darley - IUFM d'Aquitaine 17/06/2010
35
pas, comme chez les positivistes, une science qui se construit par ajouts successifs, mais,
comme chez K. Popper, une science qui s'élabore contre. Contre le confort des théories qui
ronronnent et qu'il faut réfuter chez K. Popper, contre les obstacles que dressent nos sens et
nos habitudes entre le réel et notre esprit chez G. Bachelard.
Il faut d'abord détruire l'opinion, ce déjà là qui pense mal, qui ne pense pas. Comme
chez Popper on retrouve la nécessité, sans cesse rappelée, d'apprendre à poser les problèmes
pour dépasser les propriétés substantielles du phénomène afin de le ré-interpréter par la
pensée abstraite. Et surtout ne pas hésiter à remettre ses idées en question, à secouer le confort
de la théorie qui fonctionne.
«Que faut-il sacrifier ? Nos grossières sécurités pragmatiques ou bien les nouvelles
connaissances aléatoires et inutiles ? Pas d'hésitation : il faut aller du côté où l'on pense le
plus, où l'on expérimente le plus artificiellement, où les idées sont les moins visqueuses, où la
raison aime à être en danger. Si, dans une expérience, on ne joue pas sa raison, cette
expérience ne vaut pas la peine d'être tentée. Autrement dit, dans le règne de la pensée,
l'imprudence est une méthode» (Bachelard, 1972, p 11).
Mais loin de limiter ou de contraindre la science à une méthode Bachelard, à l'inverse
de Popper, prône un rationalisme "ouvert", une épistémologie non dogmatique, à l'image de
celle de Léon Brunschvicg. «Il y a contradiction, écrit ce dernier, à vouloir, par la réflexion
sur la science, dégager certaines conditions antécédentes, susceptibles d'enfermer a priori
toute connaissance passée ou future dans des schémas statiques. La réflexion doit naître de la
science même… Bref…la métaphysique de la science est réflexion sur la science, et non
détermination de la science.»(in Fichant, p.137).
Son rationalisme appliqué, Gaston Bachelard le situe entre idéalisme et réalisme, ouvert
à la fois au formalisme et à l'empirisme. S'il y a méthode (nécessité de théoriser le réel tout en
confrontant la théorie au réel) elle est récursive et s'inscrit dans un cadre logique relativement
peu contraignant puisqu'elle emprunte aux deux logiques, inductive et déductive. Cette
"méthode" est, bien entendu, contextualisée d'un double point de vue, sociologique et
historique, la façon d'interpréter un fait ne pouvant être ni universelle ni ahistorique.
Dans le même esprit, et à défaut d'une méthode qu'il se refuse à définir, Thomas Kuhn
propose un cadre d'analyse sociologique de l'histoire des sciences dans lequel il substitue à
l'état de révolution permanente de K. Popper, l'idée de révolutions périodiques.
4.3 - LA STRUCTURE DES REVOLUTIONS SCIENTIFIQUES DE THOMAS KUHN.
Pour Thomas Kuhn l'histoire des sciences est une succession de périodes de calme, à
l'intérieur desquelles l'ensemble de la communauté scientifique travaille en harmonie autour
Bernard Darley - IUFM d'Aquitaine 17/06/2010
36
d'une théorie dominante (ce que Thomas Kuhn appelle «la science normale»), entrecoupées de
crises profondes où cette même communauté est divisée entre partisans de la continuité et
partisans d'un changement de cadre théorique. Ces crises ne sont pas de simples réajustements
de la théorie dominante comme il s'en produit régulièrement. Ce sont des "révolutions"
profondes qui déstabilisent la science de façon conséquente et qui aboutissent à un
changement radical de point de vue. L'émergence de la théorie de l'évolution ou de la théorie
cellulaire à la fin du XIXème siècle en sont deux exemples.
La science normale s'articule autour d'un paradigme que Thomas Kuhn définit comme
une théorie dont la formulation peut ne pas être très rigoureuse mais dont la qualité essentielle
est de recueillir une reconnaissance institutionnelle suffisamment large pour créer un courant
d'étude. L'existence de ce paradigme, autour duquel vont se rassembler des chercheurs qui
adhéreront à des normes et à des règles de pratiques scientifiques identiques, sera la
caractéristique qui distinguera la science des pseudo-sciences.
«Ce que j'appelle ici la science normale, écrit Thomas Kuhn, semble être une tentative
pour forcer la nature à se couler dans la boîte préformée et inflexible que fournit le
paradigme. La science normale n'a jamais pour but de mettre en lumière des phénomènes d'un
genre nouveau ; ceux qui ne cadrent pas avec la boîte passent même souvent inaperçus».
(Kuhn, 1983, p. 46)
La science normale sera donc le produit des recherches effectuées à partir de ce
paradigme, dont la formulation va se préciser à mesure que les résultats viendront apporter
leur contribution, augmentant ainsi la correspondance entre le paradigme et le réel qu'il est
censé représenter. Plus cette correspondance augmente, plus le consensus entre les
scientifiques est grand et plus les domaines explorés deviennent étroits, précis. «Mais ces
restrictions nées de la confiance en un paradigme se révèlent essentielles pour le
développement de la science. En concentrant l'attention sur un secteur limité de problèmes
relativement ésotériques, le paradigme force les scientifiques à étudier certains domaines de la
nature avec une précision et une profondeur qui autrement seraient inimaginables.» (ibid, p.
47).
A mesure que la correspondance entre le paradigme et le réel augmente, la précision de
sa formulation augmente également. Et les discordances entre le réel et le paradigme, qui ont
pu passer pour ce que Thomas Kuhn appelle des "anomalies" vont, peu à peu, à mesure qu'à
leur niveau se creuse l'écart entre réel et paradigme, devenir des points de rupture générateurs
d'une crise profonde.«Et l'épisode n'est clos que lorsque la théorie est réajustée afin que le
phénomène anormal devienne le phénomène attendu.» (ibid, p. 83)
A ce niveau de la crise Thomas Kuhn rejoint Karl Popper pour penser qu'une théorie ne
peut être invalidée s'il n'y a, prête à prendre sa place, une théorie concurrente déjà en partie
élaborée. Il ne faut cependant pas croire que le remplacement d'une théorie par une autre est
Bernard Darley - IUFM d'Aquitaine 17/06/2010
37
un acte simple pour un scientifique. Les résistances sont toujours fortes, voire virulentes. Ce
qui a fait dire à Max Planck qu'«une nouvelle vérité scientifique ne triomphe pas en
convaincant les opposants et en leur faisant entrevoir la lumière, mais plutôt parce que les
opposants mourront un jour et qu'une nouvelle génération, familiarisée avec elle, apparaîtra.»
(ibid, p. 208).
Adopter un nouveau paradigme est toujours une entreprise périlleuse puisqu'elle
consiste à renoncer à un énoncé général, largement vérifié, pour un nouvel énoncé dont la
seule référence, dans un premier temps, est de s'appuyer sur les faiblesses de l'ancien énoncé
en attendant de produire sa propre argumentation. C'est donc une démarche négative, fondée
sur un refus, et non une démarche positive au sens d'Auguste Comte, c'est-à-dire fondée sur la
mise en relation de phénomènes dictée par les faits.
La longue polémique au sujet de la génération spontanée en est un exemple éclairant.
Outre qu'il est toujours difficile de montrer que quelque chose n'existe pas, l'ensemble des
observations faites au XVIIIème et XIXème siècle (au moins jusqu'au milieu de ce siècle)
tendaient à confirmer l'hypothèse d'une génération spontanée. Et il fallait à Spallanzani et à
Pasteur une vision du monde radicalement différente de celle de Needham ou de celle de
Pouchet pour que leur acharnement à montrer l'inexistence de la génération spontanée soit
autre chose que de l'entêtement d'esprits particulièrement bornés. «Travaillant dans des
mondes différents, écrit Thomas Kuhn, les deux groupes de scientifiques voient des choses
différentes quand ils regardent dans la même direction à partir du même point (…). C'est
pourquoi une loi impossible à démontrer à tel groupe de scientifiques, semblera parfois
intuitivement évidente à tel autre.» (ibid, p. 207). C'est pour évoquer de tels décalages
conceptuels que Paul Feyerabend développera largement l'idée d'incommensurabilité28 entre
les théories.
A l'opposé donc de la thèse rationaliste défendue par Karl Popper pour qui une théorie
en remplace une autre sur des critères rationnels fondés sur les faits et se suffisant à eux
mêmes, Thomas Kuhn propose une évolution de la science où les théories cohabitent,
s'affrontent et se remplacent relativement les unes aux autres et non pas relativement à une
quelconque vérité, qu'elle soit ultime ou similaire29.
En adoptant une approche sociologique de l'histoire des sciences, Thomas Kuhn se
démarque d'une épistémologie centrée sur l'existence d'une méthode heuristique universelle.
28état de deux théories qui, tout en traitant du même problème, se fondent sur des points de vue qui les rendent totalement incompatibles sans pour autant s'éliminer. 29K. Popper, empruntant à Leibnitz qui avait introduit la notion de vérisimilitude, propose de remplacer l'idée d'une vérité ultime inaccessible par la "vérisimilarité" qui serait l'image idéale que l'on se fait de cette vérité inaccessible. La connaissance tendrait de manière asymptotique vers cette vérisimilarité.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
38
En choisissant une position qu'il qualifie lui même d'anarchiste, Paul Feyerabend va plus loin
en dénonçant le caractère pernicieux de l'idée même de méthode.
4,4 - PAUL FEYERABEND CONTRE LA METHODE
C'est par humanisme que Paul Feyerabend s'oppose vigoureusement à voir l'activité
scientifique enfermée dans un carcan fait de règles et de principes tout à la fois rigide et
immuable. Toute méthode quelle qu'elle soit, dit-il, condamne l'homme à ne considérer qu'un
point de vue des choses. «De même qu'un animal domestique bien dressé obéit à son maître,
quels que soient la situation confuse dans laquelle il se trouve et le besoin urgent qu'il peut
éprouver d'adopter de nouveaux modes de comportement, de même un rationaliste bien dressé
obéira à l'image mentale de celui qui est son maître et se conformera aux règles
d'argumentation qu'il a apprises, quelle que soit la situation confuse dans laquelle il se trouve
; et il sera tout à fait incapable de comprendre que ce qu'il considère comme "la voix de la
raison" n'est qu'un après-coup causal de la formation qu'il a reçue.» (Feyerabend, 1979, p. 23)
Très sévère dans son réquisitoire, il dénonce la duperie que constitue l'adhésion à une
méthodologie unique et hégémonique qui impose un conformisme obscurantiste et conduit
tout droit «à une dégradation des capacités intellectuelles et de la puissance d'imagination»
(ibid, p. 46).
«Il est clair, écrit-il encore, que l'idée d'une méthode fixe, ou d'une théorie fixe de la
rationalité, repose sur une conception trop naïve de l'homme et de son environnement social.
Pour ceux qui considèrent la richesse des éléments fournis par l'histoire et qui ne s'efforcent
pas de l'appauvrir pour satisfaire leurs bas instincts -leur soif de sécurité intellectuelle, sous
forme de clarté, précision, «objectivité», «vérité»-, pour ceux-là, il devient clair qu'il y a un
seul principe à défendre en toutes circonstances et à tous les stades du développement
humain. C'est le principe : tout est bon.» (ibid, p. 25)
Le maître mot est lâché. Se définissant comme un anarchiste humaniste, tendance
dadaïste, Paul Feyerabend ne défend qu'une seule règle lorsqu'il s'agit de penser : l'absence de
règle. Cette conception de la science est enrichissante en ce sens qu'elle autorise autant de
points de vue que possible. Ainsi pourront se développer, sur un même problème, des théories
qui s'inscriront dans des référentiels si différents qu'ils les rendront incompatibles entre elles
sans qu'il soit possible de définir a priori, laquelle est la meilleure.
Cette incommensurabilité, Thomas Kuhn en faisait une étape dans l'évolution des
théories. La crise profonde qui agite le monde scientifique lors d'une révolution est due à ce
que les deux théories en présence sont incommensurables. Les "anciens" et les nouveaux
n'ayant pas un minimum de points de vue en commun faute d'un référentiel identique, un
jugement comparatif direct est impossible, la crise est inévitable et l'issue ne peut être que
l'abandon de l'une des deux théories, ou son remplacement par une troisième.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
39
Pour Paul Feyerabend, la cohabitation de théories incommensurables (et l'histoire des
sciences fourmille d'exemples) est la preuve qu'il ne peut exister, et qu'il ne doit exister, une
méthode scientifique universelle puisqu'elle impliquerait que ces théories puissent être mises
en relation, au moins par la méthode qui les fonde ; ce qui est tout simplement impossible
puisqu'elles sont incommensurables. «Des théories incommensurables peuvent donc être
réfutées par référence à leur genre propre d'expérience, écrit-il, c'est-à-dire en découvrant les
contradictions internes dont elles souffrent. (…) Mais leurs contenus ne peuvent être
comparés. Il n'est pas non plus possible de porter de jugements sur leur vraisemblance, sauf
dans les limites d'une théorie particulière (…). De sorte qu'aucune des méthodes affirmant que
les théories à comparer peuvent être mises en relation déductive ne peut ici être appliquée.»
(ibid, p. 319).
Les théories de la procréation des êtres vivants, qui ont cohabité pendant plus de trois
siècles, sont un bon exemple d'incommensurabilité en biologie30.
Les épigénistes concevaient la procréation comme la mise en commun et la fusion des
semences31 du mâle et de la femelle ; semences qui étaient composées de "molécules"
provenant de l'ensemble des organes de chacun des partenaires. Mises en présence, ces
molécules mues par une force vitale, se rassemblaient pour former les organes du futur être
vivant grâce au sang menstruel qui apportait les éléments nécessaires à leur construction.
Théorie inacceptable pour les préformistes. Tout est dans le ver spermatique, pour les
uns (animalculistes), dans l'œuf pour les autres (ovistes), s'accordant seulement sur le principe
que l'humanité entière était emboîtée, à la manière des poupées russes, dans les testicules
d'Adam pour les premiers, dans les ovaires d'Eve pour les seconds32. D'ailleurs, ne suffisait-il
pas de bien observer, qui les vers spermatiques, qui le développement des œufs, pour s'en
persuader ?
Incommensurables, ces théories l'étaient à tout point de vue. L'épigénisme est
compatible avec la génération spontanée alors que le préformisme la nie. Si des molécules
sont à même de générer un être vivant dans l'humidité et la chaleur de la matrice, pourquoi
pourrait-il en être autrement des molécules provenant d'organismes, morts ou vivants, se
rencontrant dans des conditions adéquates ? Buffon, épigéniste, n'écrivait-il pas qu'«une seule
force, l'attraction, est la cause de tous les phénomènes de la matière brute ; et cette force
réunie avec celle de la chaleur, produit des molécules vivantes, desquelles dépendent tous les
30Au sujet de cette polémique voir A. Giordan, 1987 et P. Darmon, 1981 31Ce terme de semence n'avait pas le sens restreint qu'on lui donne aujourd'hui. Il représentait, chez l'homme, le sperme dans sa globalité, et, chez la femme, l'ensemble des sécrétions émises au cours d'un rapport sexuel. 32Ce qui rendait ces théories conformes aux canons de la religion, toute l'humanité était fondée au moment où Dieu créait Adam et Eve. Le même raisonnement s'appliquant, bien sûr, à toutes les espèces.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
40
effets des substances organisées», et ces molécules devenues "vivantes" sous l'effet de la
chaleur de s'associer en organismes (Buffon, in Laurent Carpentier, 1991).
La vie ne peut procéder que de la vie, rétorquent les préformistes. Puisque tout est dans
les "germes", les êtres ne peuvent apparaître spontanément. Spallanzani, oviste convaincu fut
l'un des brillants chefs de file des anti-spontanéistes de la fin du XVIIIème et du début du
XIXème siècle.
De même va-t-on retrouver les épigénistes plutôt partisans des théories de l'évolution,
alors que les préformistes y seront farouchement opposés. L'explication des ressemblances
entre progéniture et parents, fera, elle aussi, appel à des facteurs totalement différents. Produit
conjoint des semences des deux parents, les ressemblances avec le fruits de leurs amours ne
peut être que naturel pour les épigénistes. Les préformistes sont, par contre, obligés de faire
appel à des influences qui vont du psychisme (pensées de la mère qui se reportent sur la
physionomie du fœtus) à la physiologie (état de maturation de l'œuf, chaleur de la matrice,
régime alimentaire des partenaires, etc.).
Malgré cette présentation plus que brève, on perçoit l'impossibilité qu'avaient ces
différentes théories de se réfuter réciproquement ; ce qu'elles n'ont effectivement pu faire.
Cette incommensurabilité fut donc, à la fois, source de conflit pendant plus de deux siècles,
mais aussi gage de survie. Dès lors qu'une théorie fut capable, comme la théorie cellulaire, de
s'inscrire dans les deux référentiels (la fusion de produits conjoints qui se trouvaient être non
plus des éjaculats mais, justement, le ver spermatique et l'œuf), ce fut la fin de l'une comme
de l'autre.
Ce type d'exemple illustre bien la critique que fait P. Feyerabend de l'idée d'une science
qui avance par des phases de révolution qui sont, par définition, censées être brèves. Mais si
P. Feyerabend justifie avec raison l'idée d'une certaine subjectivité dans le choix d'une théorie
plutôt qu'une autre (comment les comparer et faire un choix objectif puisqu'elles sont
incommensurables ?), et qu'en ce sens les scientifiques ne sont donc pas aussi rationnels qu'ils
veulent bien le dire, cela ne doit pas exclure, confirme A. Chalmers, l'existence, dans ces
théories, d'une rationalité interne (Chalmers, 1988, p. 181 et suivantes). Il reste relativement
proche de P. Feyerabend lorsque, dans La fabrication de la science, il adopte un point de vue
pragmatique en définissant la science davantage par ses buts que par son mode de
fonctionnement.
Ce qui n'est pas d'un grand secours pour quelqu'un qui se donne pour tâche d'essayer de
comprendre comment fonctionne la science afin de tenter d'y initier des étudiants.
4.5 - Ernst MAYR, pour une épistémologie de la biologie libre et indépendante
Bernard Darley - IUFM d'Aquitaine 17/06/2010
41
«La plupart des histoires générales des sciences ont été écrites par des historiens de la
physique, qui n'ont le plus souvent pas abandonnés l'idée simpliste que toute chose qui n'est
pas applicable à la physique n'est pas scientifique. Les physiciens tendent à ranger les
biologistes sur une échelle de valeur, en fonction du degré avec lequel ceux-ci ont recouru à
des "lois", des mesures, des expériences ou tout autre aspect de la recherche qu'apprécient
particulièrement les physiciens. Il en résulte que les jugement portés sur telle ou telle
discipline biologique par certains historiens de la physique sont si grotesque qu'on ne peut
guère qu'en sourire.» (Mayr p. 33)
«On ignore souvent qu'il y a d'importantes différences entre les sciences physiques et la
biologie. La plupart des physiciens tiennent pour assuré que la physique constitue le
paradigme de toute les sciences et que dès que l'on comprend la physique, on peut
comprendre n'importe quelle autre science, y compris la biologie. "L'arrogance des
physiciens" (Hull, 1973) est devenue proverbiale chez les scientifiques. Le physicien Enest
Rutherford, par exemple, présentait la biologie comme une activité de "collectionneur de
timbres-poste".» (Mayr p.59)
«Cela a été un grand malheur, à la fois pour la biologie et pour l'humanité que le cadre
conceptuel de nos idées politiques et sociales les plus communément admises aujourd'hui se
soient développé à l'époque où la pensée occidentale était dominée par les idées de la
révolution scientifique, c'est-à-dire par un ensemble d'idées basées sur les principes des
sciences physiques.» (Mayr p.120)
«Comme Radl (1913 : VIII) l'a souligné il y a longtemps, le triomphe des sciences
physique à l'époque de la révolution scientifique représenta, d'une certaine façon, une défaite
pour la biologie…» (Mayr p.143).
CONCLUSION
C'était une conjecture et elle paraît corroborée : on pouvait penser que la genèse des
savoirs n'était pas chose simple, le moins que l'on puisse dire est qu'elle apparaît quelque peu
complexe.
En résumé et de manière un peu schématique, on peut présenter un bilan sous la forme
suivante. Six courants de pensée s'opposent deux à deux tout en se complétant l'un l'autre.
Idéalisme et réalisme
Idéalistes et réalistes s'opposent tout d'abord sur l'étendue de la perception que l'on peut
avoir du monde. Pour les réalistes, le monde existe en soi et cette existence dépasse la simple
perception que nous en donnent nos sens. Point de vue qui n'est, pour les idéalistes, que pure
métaphysique. Le monde, pour eux, est une construction mentale faite, et ce de manière
Bernard Darley - IUFM d'Aquitaine 17/06/2010
42
exclusive, à partir de la perception du monde que nous procurent nos sens33. Cette perception
devant être obligatoirement ramenée aux conditions dans lesquelles elle a été provoquée et
relativement à l'individu qui en est à l'origine. Einstein était des premiers, Heisenberg des
seconds.
Cette distinction dans l'idée que l'on se fait du monde qui nous entoure va avoir des
conséquences directes sur la qualité des lois et théories que l'on va inférer des observations ou
des expérimentations. La recherche des causes, relevant, pour les idéalistes, de la
métaphysique, les lois et théories que ces derniers seront à même de proposer ne pourront
donc être que descriptives et prédictives, mais en aucun cas explicatives, puisqu'expliquer
c'est répondre au "pourquoi ?". A l'inverse, les réalistes pourront proposer des lois et théories
qui seront à la fois descriptives (même s'ils ne tiennent pas ces dernières en haute estime),
prédictives et explicatives.
Empirisme et rationalisme
Empiristes et rationalistes s'opposent sur la manière d'aborder le monde. Par
l'observation et l'expérience pour les empiristes (qui peuvent-être aussi bien idéalistes que
réalistes), seul moyen d'avoir une base objective sur laquelle établir des relations et des lois
entre phénomènes. Par la réflexion préalable et analyse du problème pour les rationalistes
pour qui l'observation n'a de sens que si un cadre rationnel est déjà là pour l'interpréter. Bien
entendu acquiescent les positivistes, à condition que cette réflexion soit subordonnée au
verdict des faits puisqu'elle n'a de sens que relativement à ces derniers. Non, répondent les
rationalistes critiques, l'assertion a une portée plus large et un fait seul ne peut la réfuter. Il
faut pour cela que le fait s'inscrive lui-même dans une théorie capable de remplacer
avantageusement la première. Sans cette théorie de remplacement le fait "déstabilisateur"
n'aurait d'ailleurs aucun sens.
Universalisme et relativisme
Il y a enfin les partisans d'une méthodologie universelle qui transcenderait le savant, et
ceux pour qui la science est d'abord une activité humaine et donc soumise aux contraintes
sociologiques (Thomas Kuhn) et psychologiques (Paul Feyerabend) associées à ces activités.
Les premiers s'inscrivent dans un courant de pensée qui suppose que le réel, ou la part
de réel qui est perçue par nos sens, est un édifice logique accessible à la raison humaine. Pour
rendre cet accès possible il est nécessaire (mais pas suffisant) d'appliquer une méthode qui
permettra de décoder les lois qui régissent la nature. Puisque ces lois transcendent l'homme, il
est normal qu'il en soit de même pour la méthode qui, de ce fait, n'est plus rattachée à un
quelconque contexte historique et peut ainsi prétendre à l'universalité.
33Pour les nominalistes l'existence de l'objet commence lorsqu'il reçoit un nom.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
43
Parmi ceux-ci figurent F. Bacon, A. Comte, C. Bernard et K. Popper dont on peut
schématiser les démarches de la façon suivante :
Observations uniques ou peu nombreuses et incomplètes
considérées comme représentatives
de l'ensemble des cas possibles
logique formelle
observations élevées au rang de postulats
lois déduites
validation par discussion sur la rigueur du raisonnement
Observation de la nature prudente, précautionneuse, complète
choix parmi ces observations exclusion des faits non concluants
conservation des faits liés entre eux par une règle constante
faits particuliers
axiomes de dernier ordre
axiomes moyens
axiomes de premier ordre
raisonnement par induction
lois établies à partir des faits
validation par confrontation aux faits expérimentaux
F. Bacon oppose
Démarche déductive Démarche inductive
Bernard Darley - IUFM d'Aquitaine 17/06/2010
44
Figure 2
Schématisation de la démarche scientifique selon Francis Bacon
OBSERVATIONS
Recherche des causes premières et finales
Recherche de la connaissance
absolue
état théologique puis
état métaphysique
recherche des relations entre les phénomènes
subordination de l'imagination à l'observation
état scientifique ou positif
élaboration de lois descriptives et prédictives
Figure 3
Schématisation de la démarche scientifique selon Auguste Comte
Bernard Darley - IUFM d'Aquitaine 17/06/2010
45
élaboration d'une problématique puis d'un protocole expérimental
Problème à résoudre
Observation pour voir
Esprit préparé, sensibilisé à
confrontation à
résultats
affinement reformulation de l'hypothèse
"idée", "intuition"
hypothèse
confrontations multiples entre hypothèse et résultats expérimentaux
accumulation des observations
formulation de la loi essentiellement
descriptive et
prédictive
secondairement explicative
origine du problème non clairement identifiée (observation, idée a priori ,…)
Figure 4
Schématisation de la démarche scientifique selon Claude Bernard
Bernard Darley - IUFM d'Aquitaine 17/06/2010
46
Raison Observation
Culture scientifique
Individu
Données du problème
origines du problème inconnues
Validation par : - tests intersubjectifs
(validation rationnelle par la communauté scientifique)
- expérimentations (capacité à résoudre un problème)
Assertion réfutable =
théorie explicative et prédictive
Problème à résoudre
si non réfutation ==> recherche de nouvelles expériences susceptibles de réfuter la théorie
(recherche des limites de son domaine de validité)
si réfutation==> atteinte des limites de la théorie ==> reformulation de la théorie
reformulation
validation (en attendant la
prochaine tentative de réfutation)
résolution (totale ou partielle)
Figure 5
Schématisation de la démarche scientifique selon Karl Popper
Bernard Darley - IUFM d'Aquitaine 17/06/2010
47
Pour peu que l'on combine ces courants de pensées et qu'on les nuance par quelques
passerelles entre les extrêmes ici présentés, on se rend compte que l'élaboration de la pensée
scientifique n'est pas chose simple. Si l'on peut, en fonction de ses sensibilités personnelles
opter pour l'une plutôt que pour l'autre, il n'empêche que, quel que soit le choix effectué, il est
en butte à des arguments contradictoires difficiles à négliger. W. Wundt a une belle formule
pour résumer les différents courants qui ont ainsi traversé l'épistémologie des sciences. «Au
XVIIème siècle c'est, dit-il, Dieu qui établit les lois de la nature ; au XVIIème, c'est la nature
elle-même ; au XIXème, ce sont les savants qui s'en chargent.» (W. Wundt, Philosophische
Studien, 1886, t.III, in R. Blanché p. 234). Et, pourrait-on rajouter, au XXème, qui s'en
charge ?
Proposition de définition d'une connaissance scientifique
S'il nous est impossible de conclure sur le fond du débat que constitue la genèse des
connaissances, au moins devrait-on pouvoir définir, à partir de ce qui précède, en quoi une
connaissance scientifique se distingue d'une connaissance "commune".
Si l'on fait une synthèse des diverses propositions évoquées ci-dessus, on s'aperçoit qu'il
existe un assez large consensus. Une connaissance pourra être qualifiée de scientifique :
- si elle répond à un problème explicite et non à une simple interrogation.
Une explicitation du problème implique une analyse des conditions dans lequel il se
pose et des variables qui lui sont associées, éléments indispensables pour évaluer l'adéquation
entre la connaissance établie et la question posée par le problème traité.
- si elle s'intègre dans une construction rationnelle qui lui donne sens en terme
d'aptitude à rendre le réel plus compréhensible.
On retrouve là une exigence qui ne s'est pas démentie de Bacon à Feyerabend, à savoir
qu'il n'existe pas d'élément de connaissance isolé d'un contexte théorique, que ce dernier soit
empirique ou strictement rationnel.
- si ses conséquences ont fait l'objet de tests de validité.
Là encore, sur la nécessité de l'existence de tests de validation, se rejoignent, à des
degrés divers, l'ensemble des auteurs. La seule possibilité de ces tests, même s'ils ne sont pas
mis en application, suffit à K. Popper pour établir son principe de démarcation entre science
et pseudo-sciences. Pour A. Comte ou C. Bernard, à l'inverse, ces tests doivent
Bernard Darley - IUFM d'Aquitaine 17/06/2010
48
nécessairement avoir lieu et s'inscrivent dans une relation de subordination de la connaissance
au verdict des faits expérimentaux.
- si ces tests sont liés à une méthodologie socialement définie au sein de la
communauté scientifique.
C'est cette méthodologie, cette démarche expérimentale de validation des hypothèses,
que C. Bernard s'est particulièrement attaché à décrire. Nous en retiendrons qu'une démarche
expérimentale doit se faire sur la base comparative d'un témoin et doit comporter une contre-
épreuve. Nous retiendrons également qu'une expérimentation doit s'inscrire dans un principe
déterministe, seul moyen d'anticiper rationnellement les conséquences d'une hypothèse.
L'objectif de cette démarche est de définir expérimentalement les limites de validité de
la connaissance postulée ; limites qui avaient pu, au préalable, être anticipées par le modèle
théorique lui-même.
La crédibilité d'une connaissance étant très fortement liée à sa validation expérimentale,
cette méthodologie peut être l'objet de controverses qui ne sont que l'expression des
controverses qui affectent la connaissance elle-même34. Elle n'est donc pas figée et se doit
d'intégrer tous les outils nouveaux, qu'ils soient techniques ou mathématiques, susceptibles
d'affiner la qualité des tests.
- si sa formulation répond aux critères suivants :
• elle rend la connaissance communicable et, donc, testable.
• elle fait explicitement référence aux hypothèses qui la fonde. On retrouve, ici,
le problème de la subjectivité de la connaissance et de la nécessité de la lier aux conjectures
théoriques qui sont à l'origine du processus de validation.
• elle permet le débat contradictoire à l'intérieur de son cadre théorique.
Il reste, enfin, à définir la nature même du contenu de cette connaissance. Doit-il être
strictement descriptif et prédictif, tel que le définissent les néopositivistes ? Doit-il également
posséder une dimension explicative, donc une référence aux causes comme le souhaitent les
réalistes ? Pour ce qui concerne les modèles scientifiques, le débat reste ouvert. Pour ce qui
est des modèles utilisés dans l'enseignement j'aurais tendance à dire, en l'absence d'études
approfondies en ce domaine, que l'aspect descriptif l'emporte largement sur la dimension
prédictive. Quant à la dimension explicative, elle vaut du fait de l'existence de la
connaissance elle-même (ou du modèle qui lui est associé), la description prenant alors, en
règle générale, valeur d'explication.
34Voir, à ce propos les redéfinitions méthodologiques imposées par Pasteur à Pouchet au sujet du débat sur la génération spontanée, ou encore celles que Schally, mais surtout Guillemin, ont imposées à leurs concurrents dans les recherches sur les facteurs de libération hypothalamiques.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
49
On peut, enfin, compléter cette tentative de définition d'une connaissance scientifique
en résumant comme suit, les différentes étapes de sa construction.
Cette présentation emprunte à celle des différentiels proposée par D. Favre et Y.
Rancoul (1993), opposant deux positions extrêmes tout en les reliant par un système de
curseur qui permet d'envisager des positions intermédiaires.
Elle reprend ce que l'on peut considérer comme les principales étapes d'une approche
scientifique, à savoir :
- la formulation d'un problème, que cette formulation soit définitive ou partielle
- l'énoncé d'une théorie, ou d'un paradigme, qui va servir de cadre d'interprétation au
problème formulé, que cette théorie soit formulée a priori ou a posteriori
- la construction d'une problématique, exploration fine du problème, tant du point de
vue théorique que conceptuel, qui doit déboucher sur l'énoncé d'hypothèses et/ou de modèles
et la proposition d'une procédure de validation expérimentale
- la mise en place de la procédure de validation expérimentale des hypothèses et
modèles précédemment énoncés
- la validation sociale de l'analyse des résultats dont les critères principaux sont repris
des propositions faites par D. Favre et Y. Rancoul (1993).
A chacune de ces étapes on peut associer les options épistémologiques qui sont susceptibles
d'être mises en œuvre et proposer une démarcation entre scientifique et non scientifique.
Les représentations ci-dessous vont reprendre chacun de ces points, en opposant les extrêmes
mais en laissant la place à toutes les étapes intermédiaires entre ces derniers.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
50
Enoncé d'une théorie d'une loi
non réfutable réfutable
fondement empirique
fondement rationaliste
(strictement limité à un ensemble de relations)
(énoncé des causes)
conceptuellement et/ou
socialement contextualisée
énoncé universel
Formulation du problème
"magique" non
déterministe
rationnelle, déterministe
Approche du monde
sources de questionnement
(observations "pures", "naïves")
rationaliste strictesavoir
commun idéologie(s)
dogme(s)
savoir savant
idéaliste réaliste
(le réel n'existe que par la description que l'on en
donne)
(le réel a une existence en soi)
empiriste stricte
(logique formelle)
Démarcation entre scientifique
et non scientifique
Options épistémologiques
Bernard Darley - IUFM d'Aquitaine 17/06/2010
51
Construction d'une
problématique
Approche du problème
repérés identifiés
contrôlés neutralisés
(aléatorisés)
analytiqueholistique ou systémique
empiriste rationaliste
inductive déductive
relativisteuniversaliste positiviste
(socialement contextualisée)
(a-historique, strictement centrée
sur le concept)
Ensemble des facteurs étudiés
non repérés
non contrôlés
Déterminisme (relations de cause à
effet)
non clairement identifiées
clairement identifiées explicitées
Démarcation entre scientifique
et non scientifique
Options épistémologiques
Bernard Darley - IUFM d'Aquitaine 17/06/2010
52
PROCÉDURE DE VALIDATION
Empiriste Rationaliste
(expérimentations, observations)
(expériences de pensée)
absence de modèles
d'hypothèses explicites
hypothèses, modèles explicites
sans cohérence totalement cohérentes
Relations entre fondement théorique des hypothèses et
protocole expérimental
Choix du matériel expérimental
non justifié justifié
Outils de collecte et d'analyse
des résultats
non justifiésjustifiés par
rapport au protocole
Caractéristiques des
résultats
absence de témoins
présence systématique
d'un témoin
non reproductibles reproductibles
Démarcation entre scientifique
et non scientifique
Options épistémologiques
Bernard Darley - IUFM d'Aquitaine 17/06/2010
53
VALIDATION SOCIALE DES RÉSULTATS
Exposé de conclusions non contextualisées,
non vérifiables en direction d'un public de non spécialistes
Exposé pulic (écrit ou oral) face à des pairs
des résultats et conclusions contextualisés par une
problématique
Paradigme de traitement scientifique des informations
énoncés implicites
dogmes, préjugés, opinions…
construction de systématiques
attitude projective
Paradigme de traitement dogmatique des informations
100%
1
2
3
4
SENS DU DEPLACEMENT FAVORISE PAR LA DEMARCHE SCIEN TIFIQUE
(d'après D. Favre et Y. Rancoul, 1993)
énoncés explicites
hypothèses, modèles…
recherche de contre-évidences
pour préciser le domaine de validité d'un énoncé
attitude réflexive
100%
BIBLIOGRAPHIE
BACHELARD G., La formation de l'esprit scientifique, Librairie Philosophique, Vrin, Paris, 1983. BACHELARD G., Le nouvel esprit scientifique, P.U.F., Paris, 1984. BACHELARD G.,Le rationalisme appliqué, P.U.F., Paris, 1970. BACHELARD G., L'engagement rationaliste, P.U.F., Paris, 1972. BALIBAR E. et MACHEREY P., Déterminisme, Encyclopœdia Universalis, p. 283-288, Paris, 1984.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
54
BEAUDOUIN J., Karl Popper, Coll. "Que sais-je?", n°2440, P.U.F., Paris, 1989. BERNARD C. 1865, Introduction à l'étude de la médecine expérimentale, Flammarion, Paris, 1984. BOORSTIN D., 1983, Les découvreurs, Coll. "Bouquins" Robert Laffont, Ed Seghers, Paris, 1986. CANGUILHEM G., 1968, Études d'histoire et de philosophie des sciences, Vrin, Paris, 1979. CHALMERS A., 1976, Qu'est-ce que la science, Ed. La Découverte, Paris, 1988. CHALMERS A., La fabrication de la science, Ed. La Découverte, Paris, 1991. COMTE A., Cours de philosophie positive, Nathan, Paris, 1989. FEYERABEND, P., 1975, Contre la méthode, Paris, Le Seuil, 1979. FICHANT M., L'épistémologie en France, in La philosophie au XXème siècle, sous la direction de François Châtelet, Marabout Université, Paris, 1979. GRANGER G.G., Rationalisme, Encyclopædia Universalis, pp 540-543, Paris, 1984. HOLTON Gerald, L’invention scientifique, PUF, Paris, 1982 JACOB F., La logique du vivant, Gallimard, Paris, 1970. JARROSSON B., Invitation à la philosophie des sciences, col. "Points Sciences", ed. du Seuil, Paris 1992. KOLAKOWSKI L., La philosophie positiviste, Coll. "Médiation", Ed. Denoël/Gonthier, Paris, 1976. KREMER-MARIETTI A., Le Positivisme, Coll. "Que sais-je?" n° 2034, P.U.F., Paris, 1982. KREMER-MARIETTI A., Positivisme, Encyclopædia Universalis, pp 803-806, Paris, 1984. KUHN T., 1970, La structure des révolutions scientifiques, Flammarion, Paris, 1983. LAKATOS I., Preuves et réfutations, Hermann, Paris, 1984.
Bernard Darley - IUFM d'Aquitaine 17/06/2010
55
LALANNE J., Contribution à l'étude du développement de la pensée scientifique -orientation biologique- chez les enfants de 6 14 ans, Thèse de doctorat de 3ème cycle, Université de Bordeaux II, 1983. LARGEAULT J. (a), Idéalisme, Encyclopædia Universalis, pp 889-894, Paris, 1984. LARGEAULT J.(b), Réalisme, Encyclopædia Universalis, pp 585-588, Paris, 1984. LATOUR B., La science en action, Ed. La découverte, Paris, 1989. LATOUR B., WOOLGAR S., La vie de laboratoire, Ed. La découverte, Paris, 1988. LECOURT D., Expérience, Encyclopædia Universalis, pp 668-670, Paris, 1984. LEVY-LEBLOND J. M., Éloge des théories fausses, Actes des Secondes Journées sur l'Enseignement Scientifiques de Chamonix, 1980, pp.53-62, Ed. LIRESP, Université Paris VII. MAYR E., 1982, Histoire de la Biologie T 1&2, Fayard, 1989 ORTIGUES R., Empirisme, Encyclopædia Universalis, pp. 249-257, Paris, 1984. PICHOT A., Eléments pour une théorie de la biologie, Maloine, Paris, 1980. PICHOT A., Histoire de la notion de vie, Gallimard, 1993 POPPER K., 1959,La logique de la découverte scientifique, Payot, Paris 1973. POPPER K., 1963, Conjecture et réfutation, Payot, Paris 1985. POUSSEUR J. M., Bacon, inventer la science, Belin , Paris, 1988. SAINT-SERNIN B., Induction, Encyclopædia Universalis, pp 1077-1079, Paris, 1984. TATON R., Histoire générale des sciences, Tome 1 : La science antique et médiévale, PUF, Paris, 1966.