21 mai 2011

Les limites de la connaissance 2) l'effondrement des fondations, L'empirisme logique


Préambule.
La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?

Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gôdel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr  en mettant en cause toute notre manière de penser.
L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?

La certitude en mathématiques. 
Les conclusions de l'article sur l'empirisme logique aboutissent à une vision du monde qui refuse au savoir toute certitude assurée et qui remet en cause le statut même de la réalité extérieure; la science n'est que le discours le plus simple et le plus commode en adéquation avec nos expériences; Les objets physiques ne sont que des entités intermédiaires que nous postulons pour que nos lois soient les plus simples possibles, mais rien ne nous garantit que leur existence est plus réelle que celle des dieux de l'antiquité. 


Le programme finitiste de Hilbert.
L'idée de Hilbert est d'enfermer la totalité des mathématiques dans un système formel finitiste




Les limites de la connaissance 2) l'effondrement des fondations, L'empirisme logique

Idées fortes de ce chapitre?


Les idées de Quine sont dévastatrices pour l'empirisme logique,elles inaugurent une vision du monde qui refuse au savoir toute certitude assurée et qui remet en cause le statut même de la réalité extérieure.
Quine est instrumentaliste: la science n'est que le discours le plus simple et le plus commode en adéquation avec nos expériences. Les objets physiques ne sont que des entités intermédiaires que nous postulons

On est donc conduit en apparence au dilemme consistant à choisir entre une attitude sceptique (nous ne pouvons fonder rationnellement nos croyances), et un attitude dogmatique consistant à accepter un certains de postulats comme évidents et ne demandant pas à être justifiés (par exemple, croyance que nos théories reflètent la structure du monde).
Les réflexions des épistémologues ultérieurs ainsi que les avancées faites par les scientifiques, loin de donner espoir d'arriver un jour à résoudre ces difficultés, n'ont fait qu'accentuer l'écart entre la certitude qu'on souhaiterait pouvoir attribuer à la science et le statut objectif qu'il convient de lui céder.



En exergue:
"Dans une arche, un bloc de faîte est supporté immédiatement par d'autres blocs de faîte, et finalement par tous les blocs de base collectivement, mais par aucun individuellement; Il es est de même des phrases, lorsqu'elles sont reliées dans une théorie. [... ]Peut-être devrions-nous même concevoir l'arche comme chancelant comme pendant un tremblement de terre; On comprend alors que même un bloc de la base ne pourra être soutenu, à certains moments, que par les autres blocs de base par l'intermédiaire de l'arche."                 Quine  (1960).

1) Le cercle de Vienne et l'empirisme logique.



          a)Le cercle de Vienne et ses conceptions.

Il s'est constitué, autour des années 1920, autour d'un noyau de départ formé du mathématicien Hans Hann, du physicien Philipp Frank et du sociologue Otto Neurath. Il a pris sa pleine mesure avec Rudolph Carnap le philosophe Moritz Schlick , puis les mathématiciens Kurt GodelGustav Bergman et Karl Mendel, l'historien Victor Kraft et deux étudiants Herbert Feigl et Friedrich Waismann. Il fut dissous après l'assassinat de Schlick en 1926. Mais l'empirisme logique, héritier de ces idées a exercé une influence,ce prépondérante sur des générations d'épistémologues et de logiciens de Quine, Hempel, et Goodman à Putnam, Von Wright et Hintikka. 
Son espoir était de fonder la connaissance sur des bases certaines. A l'instar des empiristes classiques (Francis Bacon philosophe au 17e siècle), Jonh LockeGeorge Berkeley au 18e siècle, et Jonh Stuart Mill et Auguste Comte au 19e siècle) leur postulat de départ est que le monde extérieur nous est accessible uniquement à travers nos observations et que ce n'est que par l'expérience que nous pourrons acquérir les informations pour comprendre et décrire la réalité. Le sens d'un énoncé observationnel s'impose de lui-même et il ne peut résulter aucune ambiguïté tant qu'on se limite à des propositions du type: "à tel instant et en tel lieu, untel a observé directement tel mouvement...". 
Le philosophes du cercle de Vienne disposent d'un nouvel instrument d'analyse, la logique formelle due à Frege, Russel et Elfred North Whitehead. Elle permet de formaliser et analyser le discours scientifique qu'on peut élaborer à partir des lois générales, des énoncés observationnels  et de leurs conséquences communes. A leur tour, celles-ci peuvent être traduites en énoncés observationnels, puis testés et donc vérifiés (les lois sont alors confirmées). C'est le modèle "déductif-nomologique", dont la rigueur et la cohérence permettent de nourrir les espoirs de construire une science rationnelle. La logique formelle utilisée pour analyser le langage ordinaire est censée y permettre d'éliminer les paradoxes, les ambiguïtés voire les non-sens. L'empirisme moderne a érigé en dogme le clivage entre les énoncés analytiques (significations indépendantes des faits) et les énoncés synthétiques (fondés sur les faits). Le cercle de vienne adopte une position anti-kantienne: aucun jugement synthétique à priori n'est possible. C'est dirigé contre la métaphysique en général et plus particulièrement l'idéalisme allemand (Hegel et Heidegger), qui selon les empiristes logiques, n'est qu'un discours vide de sens. Pour eux, une proposition n'a de sens que si que dans la mesure où elle est vérifiable expérimentalement (théorie vérificationniste du sens) et même selon le slogan de Schlick, le sens se réduit à à sa méthode de vérification. Par ailleurs, selon Wittgenstein, les vérités logiques et les définitions sont certaines car elles ne sont que des conventions de langage; les mathématiques et la logique se réduisent à des tautologies, vraies mais vides de sens (Tractatus logico-philosophicus). La science utilise donc les mathématiques et la logique comme outils analytiques n'apportant aucune connaissance empirique, mais ne contenant que des vérités; son contenu empirique provient des énoncés observationnels, qui peuvent être vérifiés. 


Ce sont les pierres de base de l'édifice scientifique qui rendent compte des observations selon Carnap. Ils doivent être exprimés à l'aide des expériences sensibles du sujet agissant du type: "A tel moment et tel moment, en tel et tel lieu et sous telle et telle circonstance, tel et tel a été, est ou sera observé". Une telle réduction est cependant difficile pour des termes comme "électron " ou "champ". Ces terme, appelés "termes théoriques" par Carnap, peuvent-ils traduits dans le vocabulaire purement observationnel de la théorie? La réponse de Carnap et de Mach est positive. A partir des expériences sensibles du sujet connaissant comme éléments de base, il propose de construire une hiérarchie d'objets telle que chaque niveau puisse être réduit au niveau inférieur par des "définitions constructives". Ainsi tout énoncé scientifique peut ne porter que sur les objets de niveau le plus bas, les expériences sensibles. Tous les termes d'une théorie scientifique peuvent être alors traduits en énoncés protocolaires et la théorie est donc exprimable au moyen de lois générales ne portant que sur des entités observables.

          c) La théorie vérificationniste du sens.

Ramener tout énoncé scientifique à à un ensemble de tels énoncés protocolaires est ce que Karl Hempel a appelé "l'exigence de vérificabilité complète". Pour les positivistes logiques, seuls les énoncés susceptibles d'être ainsi testés possèdent un sens, qui s'identifie donc avec le contenu empirique et même selon Schlick, avec la méthode de vérification. Ce critère de démarcation leur permet de rejeter en bloc l'idéalisme allemand et toute la métaphysique comme des discours ne développant que des suites de non-sens. Mais ne sont pas touchées les les propositions de mathématiques et de la logique dont Wittgenstein a montré dans le Tractatus qu'elles se réduisent à des tautologies, vraies, mais dénuées de contenu empirique. 

          d) L'induction.

 Pour les positivistes logiques, on obtient une loi en généralisant les occurrences particulières de même type d'un phénomène, par exemple, que si on suspend des masses à un ressort, on observera que l'allongement de ce dernier est proportionnel à la masse suspendue. Cette expérience, répétée avec des ressorts différents, le coefficient de proportionnalité n'est pas le même pour des ressorts différents, mais est la même pour chaque ressort: l'allongement est proportionnel à la masse. Cette loi est supposée applicable à tous les ressorts et à toutes les masses bien qu'elle n'ait été observée que pour un nombre restreint de ressorts et de masses.
Formellement, l'induction est le mode d'inférence qui permet de passer d'exemples particuliers à une loi générale: étant donné l'observation d'un certain nombres d'objets de type A (A1, A2...An), possédant la propriété P, cad tels que P(A1), P(A2),...P(an), on infère que tout objet du type A possède la propriété P; Vi Ai € A =>P(Ai). Pour les positivistes logiques, l'induction est un des points fondamentaux de de l'explication et de la formation des lois scientifiques.

          e) Le modèle déductif-nomologique.

Cette théorie repose sur trois pieds: 1) Les lois scientifiques (d'où l'adjectif nomologique). 2) Les conditions initiales. 3) Les règles logiques de déduction.
En appliquant la logique (et les mathématiques) à la loi de la gravitation sous la contrainte des conditions initiales, il est alors possible (par exemple pour un caillou qu'on lance en l'air), de prédire les propriétés observables des occurrences particulières d'un phénomène (la position et la vitesse à tout instant ultérieur). Celui-ci, prédictible dans ses manifestations et ramené à à un cas particulier d'une loi générale, est alors considéré comme expliqué et donc compris. Pour le positivisme logique,, la science est donc une construction hors de doute puisqu'elle repose sur des données certaines, des règles de construction logiques et des lois admises.

2) La libéralisation de l'empirisme logique.

          a) Cohérence et difficultés des positions du Cercle de Vienne.

La conception des philosophes du cercle de Vienne possède une force de conviction et une cohérence indéniables. Elle permet de donner à la science une solidité et une certitude qui auraient ravi certains physiciens de la fin du 18e siècle, qui étaient persuadés que la physique était achevée... Elle ne peut que renforcer l'idée selon laquelle le savoir scientifique, par opposition aux  fausses sciences (l'astrologie, la psychanalyse) et à la métaphysique, dispose d'un statut supérieur, de par la rigueur de son fonctionnement. Malheureusement, les piliers sur lesquels il repose furent attaqué et rongés par ses propres héritiers.
La possibilité de réduire le vocabulaire théorique au vocabulaire observationnel fut remise en cause par Carnap en 1936 et l'irrévocabilité de ces énoncés fut critiquée par Neurath et dut être abandonnée. Le critère de signification vérificationniste se montra trop restrictif et laxiste comme le montra Hempel. La distinction entre énoncés synthétiques et et analytiques ne résista pas à la critique de Quine et même la possibilité de réfuter une loi générale par une expérience cruciale fut abandonnée en raison du problème de Duhem-Quine. Les règles durent être assouplies, ce qui entraîna un net affaiblissement des certitudes quant à la construction scientifique.

           b) Les prédicats dispositionnels.

L'espoir de Carnap que le vocabulaire théorique pouvait être ramené au vocabulaire observationnel fut anéanti par la considération des prédicats dispotitionnels de type "soluble" ou "fragile". Explicitée selon les règles de la logique formelle, cette définition s'explicite ainsi: Vx {S(x) = Vt[E(x,t) => F(x,t)]} où S(x) signifie x est soluble, E(x,t) signifie est plongé dans l'eau à l'instant t, F(x,t) signifie fond à l'instant t. Le problème vient du fait que  E=>F si E et F sont vraies mais aussi si E est faux quelle que soit la valeur de vérité de F. Donc un corps sera dit soluble si s'il est plongé dans l'eau et fond ou bien s'il n'est pas plongé dans l'eau.On conçoit que cette définition soit insatisfaisante, car tout corps à l'abri de l'humidité pourra être réputé insoluble
Carnap tenta de résoudre ces difficultés à travers ce qu'il appela des "phrases de réduction". cela revient à restreindre la définition de soluble, par exemple de la manière suivante: si un corps est dans l'eau à l'instant t, il sera dit soluble si et seulement si il fond à l'instant t. Mais il devient impossible de dire si l'eau dans un sucrier est soluble. L'espoir de traduire le vocabulaire théorique en vocabulaire observationnel s'effondre. On ne peut plus considérer qu'un énoncé observationnel n'est doué de sens que s'il est strictement réductible à des énoncés protocolaires. Carnap a formulé une "exigence de de confirmabilité simple" (il suffit que certains cas particuliers soient vérifiables), mais il faut alors clarifier les liens entre un énoncé universel et ses occurrences. C'est le problème de l'induction.
         
           c) Le principe vérificationniste. 

C'est le principe: un énoncé a un sens quand il est logiquement déductible d'un ensemble fini d'énoncés protocolaires (ce que Hempel appelle "l'exigence de vérificabilité complète". Mais qui vérifie l'énoncé? Faut-il un hypothétique observateur idéal? Le sens ne semble pas pouvoir être défini de manière absolue. Selon ce principe, aucun énoncé universel n'a de signification, car il ne saurait être déduit d'un nombre réduit, aussi grand soit-il d'énoncés. Cela condamne toutes les lois de la physique à n'être que des énoncés dépourvus de sens. D'autres conséquences indésirables comme "cette chaise chante la couleur rugueuse" satisfait le critère de vérification. 
Hempel proposa alors comme critère de scientificité d'un énoncé, la possibilité de sa traduction dans un langage empiriste défini ainsi: si L est la langage, le vocabulaire de L contient les locutions de la logique (connecteurs, quantificateurs...), les prédicats d'observations constituant le vocabulaire empirique de L, les expressions définissables à l'aide des éléments précédents et enfin des règles de formation dénoncés telles que celles données dans les Principia Mathématica de Russel et Whitehead. On peut ainsi lever les objections provenant des connecteurs et des quantificateurs, mais reste le problème des prédicats dispositionnels.

          d) La logique inductive.

Devant le problème des lois universelles non réductibles à la conjonction d'un nombre fini d'énoncés, Carnap essaya de construire une logique inductive si la loi, bien que non vérifiée dans sa totalité, est confirmée à un certain degré par les occurrences constatées. Certes, on sait depuis le célèbre critique de Hume, que l'induction n'est pas un mode de raisonnement valide, contrairement à déduction pour laquelle la vérité des prémisses garantit celle de la conclusion. Carnap voulait construire à travers le concept de probabilité logique, un moyen de calculer le degré de confirmation qu'apporte un énoncé singulier à une hypothèse universelle. Les probabilités logiques ne sont pas des probabilités fréquentielles, mais sont liées au contenu logique (à l'ensemble des conséquences) des énoncés. Cela permet de ramener les lois universelles dans le champ de la science. Malheureusement, comme cela le fut fortement souligné par Popper, et reconnu par Carnap, le degré de confirmation de toute loi universelle dans un monde infini ne peut être différent de zéro. Hempel essaya de un critère de confirmation non quantitatif, mais se heurta à des difficultés, et on n'aboutit à aucune réponse satisfaisante. Goodman mit en évidence par l'intermédiaire de son célèbre paradoxe: la difficulté de déterminer si un prédicat est projectible (si on a le droit de faire une induction le concernant). L'observation d'un grand nombre d'objets de type A possédant la propriété P et d'aucun objet du type P ne la possédant pas, nous incite à induire que tout objet du type A possède la propriété P par exemple: toutes les émeraudes sont vertes). Le prédicat "vert" est projectible. Paradoxe:  soit le prédicat "vleu", défini par "vert" si observé avant 2011 ou "bleu" sinon.Les émeraudes observées jusqu'à présent sont "vertes", mais aussi "vleues". Son induit que toutes les émeraudes sont "vleues", alors une émeraude observée en 2012 sera "vleue". Ce paradoxe n'est pas encore résolu. 
Certains, comme Boudot en concluent que l'absence d'une logique inductive n'est pas un échec momentané qui résulterait de l'insuffisance de la recherche, mais le signe de son impossibilité radicale. 

          e) Les énoncés protocolaires.
Les énoncés protocolaires perdent ainsi leur statut de privilégiés et doivent aussi satisfaire le critère de vérification. Neurath le remit en cause au nom du principe même de vérification. Aucun énoncé ne doit être inébranlable et considérer les données des sens comme se référant à une réalité extralinguistique est  un présupposé métaphysique inacceptable. Il est par ailleurs impossible de déterminer des énoncés protocolaires purs et en conséquence les énoncés de base de la science n'ont pas à faire référence aux données des sens.Ils doivent être ceux du langage naturel, du langage de la physique purifié de ses éléments inadéquats à l'édification de la science.C'est la thèse du physicalisme, qui stipule de plus que les énoncés ne peuvent être comparés qu'avec d'autres énoncés, et non pas directement avec les faits.  Mais que voulons nous dire lorsque nous parlons de fait ou de réalité?
Wittgenstein avait avancé que dans le Tractatus, que que cette correspondance était une similitude structurelle, mais cette idée, finalement fausse, avait obscurci le problème.Dans le physicalisme, le concept de vérité évolue de donc de la vérité-correspondance (est vrai un énoncé qui correspond aux faits), à la vérité-cohérence (est vrai un énoncé qui ne contredit pas les énoncés déjà acceptés). Il y a donc effondrement de de la construction originelle de l'épistémologie positiviste. La distinction entre théorie et observation s'estompe et la connaissance perd ses bases certaines. Carnap essaya bien de construire des règles syntaxiques permettent d'éliminer du langage ordinaire toutes les phrases contradictoires ou dépourvues de sens, pour que tout énoncé bien formé soit automatiquement pourvu de signification empirique et montrer que la métaphysique n'est qu'un discours vide de sens. Mais il reconnut que qu'il est impossible de se passer de considérations sémantiques.
Schlick fit remarquer que que la cohérence n'est pas une condition suffisante de vérité sinon un conte de fées, ne contenant aucune affirmation contradictoire avec les autres, devrait être considéré comme vrai. De plus, il mit en avant l'incompatibilité entre le physicalisme et l'empirisme, "la science n'est pas le monde".  Carnap se tourna alors vers la théorie sémantique de la vérité-correspondance de Tarski: l'énoncé "la neige est blanche" est vrai si et seulement si la neige est blanche. Cette formulation permet de parler à la fois des énoncés et des faits auxquels ils se rapportent dans un métalangage sémantique en faisant disparaître les difficultés liées à la notion de correspondance entre un fait et un énoncé. L'explication de Tarski emporta l'adhésion générale. Mais les critiques de Neurath sur le caractère certain des énoncés protocolaires avaient réussi à saper la base observationnelle et conduit à une conception relativiste de la connaissance. 

3) Autres positions.

          a) Les critiques de Karl Popper

Pour Popper, vouloir éliminer la métaphysique en montrant qu'elle n'est qu'un discours vide de sens est à la fois inutile et sans espoir. Ce qui distingue la métaphysique de la science, ce n'est pas l'abscence ou la présence de sens, mais la testabilité: un énoncé est scientifique (donc pourvu du'un contenu empirique) si et seulement si il est réfutable par l'expérience. Ce principe de faslifiabilité est un critère de démarcation entre science et métaphysique et non pas un critère de signification. Les critères de signification proposés par Carnap sont non seulement insatisfaisants, mais peuvent être dangereux pour la science car certains énoncés scientifiques pourraient en être exclus. Il propose de construire dans un langage physicaliste  qui est censé assurer que les propositions qui suivent sa syntaxe sont pourvues des sens, ce qu'il appelle la proposition métaphysique suprême: "il existe un esprit personnel omniscient, omniprésent et omnipotent."  Il est vain de prétendre qu'on peut construire un langage physicaliste qui serait celui de la science unifiée et d'où la métaphysique serait bannie par construction. De même les énoncés de réduction que Carnap avait proposés pour résoudre le problème des prédicats dispositionnels n'est pas une solution satisfaisante, car elle est circulaire. Mais cela ne gêne pas Popper car il remet en cause la position des empiristes logiques sur les énoncés de base. 
En effet, pour Carnap et les empiristes logiques il existe des énoncés de base (énoncés observationnels considérés comme indubitables) sur lesquels s'appuie l'édifice de la science. Que ce soient des rapports d'observation portant sur les objets physiques directement (physicalisme de Neurath et Carnap), ou des compte-rendus privés d'expériences sensorielles (Schlick), ces énoncés, bien que corrigibles demeurent une base solide.
 Mais dit De Fries, comment justifier ces énoncés pour éviter qu'ils deviennent des dogmes?  sa réponse est : ils ne peuvent être justifiés que par d'autres énoncés; il y a donc régression à l'infini, sauf si on fait appel au psychologisme qui permet de justifier un énoncé à partir des perceptions. Popper le refusera, mais évitera la régression à l'infini en proposant que la justification soit basée à un moment donné sur un consensus qui permet d'accepter certains énoncés provisoirement. Mais il y a un prix à payer: on ne sera jamais certain de la sûreté d'un énoncé. Popper l'accepte, car il a construit toute son épistémologie sur le rejet de la certitude absolue. Les théories scientifiques sont des hypothèses que que nous faisons à un moment donné pour résoudre les problèmes empiriques que nous nous posons. Elles ne sont pas construites par induction, mais émises dans le but d'en déduire des conséquences qui seront confrontées avec la réalité. On ne pourra jamais prouver une hypothèse qui a la forme d'un énoncé universel, mais on pourra la réfuter si une de ses conséquences est en désaccord avec l'expérience, ou la corroborer si ses conséquences sont vérifiées. Ainsi, la science ne pourra jamais atteindre la vérité. Elle avance par conjectures et réfutations; plus une théorie aura subi avec succès des tests sévères et variés, mieux elle sera corroborée. 
Popper attaque aussi la les tentatives de Carnap de construction d'une logique inductive. La théorie de la probabilité logique est est paradoxale et manque son but puisque toute lois a une probabilité nulle quelles que soient les évidences empiriques (en nombre forcément fini) en sa faveur, alors que certains énoncés métaphysiques peuvent avoir un probabilité proche de 1. Son épistémologie, qui prend le contre-pied de beaucoup des positions fondamentales des philosophes de de Vienne est hypothético-déductive contrairement à celle de l'empirisme logique qui est inductive à partir des énoncés d'observation. 
Quant à la question de savoir comment les chercheurs se mettent d'accord sur les énoncés de base consensuels. Pour Popper, cette question relève de la psychologie ou de la sociologie, mais cette réponse n'est pas satisfaisante. Son système est entièrement hypothético-déductif met cependant en avant  le concept de degré corroboration: une théorie sera d'autant mieux corroborée qu'elle aura satisfait un nombre plus important de tests et que ceux-ci seront sévères. Cela rappelle étrangement au degré de confirmation de carnap que Popper rejette fortement. Ce degré de corroboration se rapporte aux performances passées de la théorie et ne dit rien de ses capacités futures de prédiction. Mais Lakatos fit remarquer qu'en l'absence d'un principe inductif, rien ne justifie une préférence d'une théorie à une autre moins bien corroborée.
Par ailleurs, Popper, en réaliste convaincu, avance le concept de vérisimilitude d'une théorie qui est censé mesurer le degré auquel cette théorie correspond à la réalité. Il compare l'ensemble des conséquences vraies (son "contenu de vérité") et l'ensemble des conséquences fausses ("contenu de fausseté") de deux théories. Cette idée, pourtant séduisante n'a jamais pu être appliquée (comme le montra David Miller), car deux théories fausses ne peuvent jamais être comparées, car aucune des deux conditions qu'elle implique n'est jamais satisfaite. Quant au critère de démarcation falsificationniste, il souffre de difficultés symétriques de celles du critère de signification vérificationniste. En effet, les propositions universelles du type  "Vx P(x)" sont scientifiques si si P est un prédicat observable, car il suffit d'exhiber un x tel que "non" P(x) pour les réfuter. En revanche aucune proposition existentielle du type "E (il existe) P(x)" ne l'est puisque puisque pour la réfuter, il faudrait vérifier sur l'ensemble infini des x qu'aucun x ne vérifie P.  

          b) L'épistomologie pragmatique de Quine. 


Quine va plus loin que Popper dans sa critique des dogmes empiristes et son épistémologie pragmatique aboutit à la nécessité de l'abandon complet du fondationalisme. Il s'attaque à à la distinction entre énoncé analytique et énoncé synthétique dont il démontre qu'elle n'est pas fondée. En partant de la définition de Kant selon laquelle un énoncé analytique est un énoncé qui est vrai en vertu de la signification des termes qu'il  contient et indépendamment des faits.


 Que dire du concept de signification? De même qu'en physique, où on prend comme entité de base la relation d'égalité de poids pour une définition opérationnelle, il Quine se concentre sur la notion de synonymie qui lui permet d'éliminer le concept obscur de signification. Il définit le concept de vérité logique comme étant celui d'un énoncé vrai qui reste vrai pour toute réinterprétation de ses constituants autres que les termes logiques (connecteurs, quantificateurs). Ainsi l'énoncé "aucun homme non marié n'est marié" reste vrai quelque soit la manière dont on réinterprète les termes "homme" et "marié". Ainsi: "aucun nuage non noir n'est noir. L'énoncé "aucun célibataire n'est marié" n'est pas une vérité logique. Mais si on remplace les termes (ici "célibataire") par des synonymes (ici "homme non marié", l'énoncé est transformable en vérité logique. Il est donc possible de définir un énoncé analytique comme un énoncé qui est, soit une vérité logique, soit transformable en une vérité logique en remplaçant certains de ses termes par des synonymes. Maintenant, le problème consiste à à définir la synonymie entre deux termes. Les démarches suivantes sont possibles:
a) Deux termes sont synonymes quand l'un est la définition de l'autre.Cette solution est une illusion car elle repose sur une synonymie préalable plutôt qu'elle ne l'explique. 
b) Les deux termes peuvent être substitués "salva veritate", selon l'expression de Leibniz (sans changement de valeur de vérité) dans un énoncé. Mais cette définition est trop laxiste et laisse passer pour synonymes des termes qui ne le sont pas. 
c) Renforcer le critère en proposant la substituabilité salva veritae même au sein d'énoncés contenant des adverbes modaux du type "nécessairement". Mais il y a lors circularité car la compréhension de l'adverbe modal présuppose la notion d'analyticité.
d) Synonymie extensionelle: deux prédicats sont synonymes s'ils sont vrais des mêmes choses. Mais elle n'est pas identique à la synonymie cognitive, comme le montre l'exemple des deux prédicats "créatures avec des reins" et et "créatures avec un coeur", qui ont la même extension mais qui ne signifient la même chose.
Quine renverse alors sa stratégie en essayant de définir directement l'analycité. La vérité d'un énoncé provient de deux composantes: à la fois à cause de la signification de ses termes et en raison de faits extérieurs. Ainsi, dans l'énoncé "la neige est blanche"  est vrai, c'est à la fois parce  que "neige" veut dire neige et "blanche" veut dire blanche, mais aussi parce que la neige est blanche. La vérité a donc une composante linguistique et une composante factuelle. On pourrait définir un énoncé analytique comme un énoncé vrai dans lequel la composante factuelle est nulle.  Mais il semble à Quine que c'est une profession de foi métaphysique. 
Alors il s'interroge sur la nature des relations entre les énoncés et les expériences qui contribuent à augmenter ou diminuer sa confirmation et élimine le réductionnisme radical (cette relation est fournie sous forme de constatation directe et un énoncé pris isolément est susceptible d'être confirmé ou infirmé). Il prétend que ce n'est que collectivement que les énoncés sont livrés au tribunal de l'expérience. Comme Duhem, il pense que la confirmation ou la réfutation ne vise pas une hypothèse isolée, mais l'ensemble du corpus scientifique; l'unité de signification empirique n'est pas l'énoncé, mais la totalité de la science. Cela efface définitivement tout espoir de définir l'analycité grâce au critère vérificationniste mais enlève aussi toute pertinence à ce critère. 
Ce holisme donne de graves difficultés au critère falsificationiste de Poper: est-ce la théorie testée qui est réfutée ou une hypothèse auxiliaire? Le holisme sémantique (selon lequel l'unité de signification est la science toute entière) découle logiquement du holisme épistémologique de Duhem (selon lequel on ne vérifie jamais une hypothèse isolée) et de la théorie vérificationiste de la signification. De plus, ce holisme épistémologique de Quine ne se limite pas à la physique, mais s'étend à tout le savoir ("Il est comparable à un champ de forces dont les frontières seraient l'expérience"). En cas de conflit avec l'expérience, des réajustements s'opèrent et de plus, il est sous-déterminé par les expériences. La méthode scientifique est le chemin pour trouver la vérité, mais elle ne fournit pas, même en principe, une définition unique de la vérité. Cela signifie que plusieurs théories contradictoires entre elles peuvent être conformes avec toutes les expériences faites mais aussi avec toutes les expériences possibles en droit (c'est la thèse de la sous-détermination). Seul le pragmatisme nous dicte quels sont les énoncés que nous avons intérêt à réviser.
Les idées de Quine sont dévastatrices pour l'empirisme logique,elles inaugurent une vision du monde qui refuse au savoir toute certitude assurée et qui remet en cause le statut même de la réalité extérieure. Quine est instrumentaliste: la science n'est que le discours le plus simple et le plus commode en adéquation avec nos expériences. Les objets physiques ne sont que des entités intermédiaires que nous postulons pour que nos lois soient les plus simples possibles, mais rien ne nous garantit que leur existence est plus réelle que celle des dieux de l'antiquité. Même si une théorie "colle" aux observations passées, présentes et futures, la sous-détermination des théories interdit de penser que sa structure est une fidèle reflet de la réalité telle qu'elle est. Une autre théorie incompatible peut tout aussi bien "coller", alors qu'en déduire sur la structure de la réalité? Quine n'abandonne cependant pas l'empirisme, mais prône un pragmatisme permettant de considérer la science comme un instrument permettant de s'y retrouver dans l'expérience empirique. 


4) Que reste-t-il de l'empirisme logique?


Les difficultés que rencontrent les conceptions des empiristes logiques ne sont pas de simples objections éliminables par de légers aménagements, mais elles sont symptomatiques de maladies plus profondes qui touchent l'essence même du projet fonctionnaliste. 
1) Le concept d'énoncés observationnels sur lequel on peut faire reposer de manière sûre l'édifice scientifique ne peut être maintenu. Il semble impossible de faire reposer la science sur l'observation de telle manière qu'aucun doute n'existe quant à ses énoncés de base. Cependant, sur quelle autre base s'appuyer?
2) Le vocabulaire de la science ne peut être réduit à un vocabulaire ne faisant appel qu'à des entités observables. Certains termes comme les prédicats dispositionnels sont irréductibles et leur définition ne peut être donnée formellement de manière satisfaisante. De plus, tous les prédicats descriptifs sont dispositionnels et il faut donc abandonner l'idée de pouvoir traduire quelque terme théorique .que ce soit (comme "champ" ou "électron") en vocabulaire observationnel. La distinction, fondamentale pour les positivistes, entre théorie et observation disparaît et la science n'est pas décomposable entre une partie observationnelle et une partie et une partie théorique. C'est un mélange intime des deux.
3) La possibilité de s'assurer de manière définitive de la vérité d'une théorie doit être abandonnée. Elle doit être considérée au mieux comme une hypothèse à confirmer. Mais le concept même de confirmation est sujet à difficultés.
4) La possibilité de définir un critère définitif permettent au moins de caractériser le discours scientifique par rapport à tout autre type de discours (métaphysique, théologique ou charlatanesque), paraît rencontrer des obstacles insurmontables. 
5) Le statut ontologique des objets physiques se voit ramené à celui des chimères, tout juste peut-on considérer qu'il en diffère par une question de degré.
6) Enfin, la possibilité de construire des théories incompatibles, rendant compte aussi bien de l'ensemble des observations possibles, enlève tout espoir de connaître la structure intime de la réalité en supposant que celle de la théorie en est le fidèle reflet. 


Les critiques se sont succédées jusque dans les années 1970. A partir de là on assista à la naissance d'une multitude de visions divergentes "prétendant" pallier les défauts du positivisme logique: réhabilitation de l'étude de l'histoire et de la sociologie des sciences qui avaient été écartées par le Cercle de Vienne (Thomas Kuhn), réalisme scientifique (Hilary. Putnam, R. Boyd), théorie anarchiste de la connaissance (P. Fereyabend), relativisme, scepticisme....
On est donc conduit en apparence au dilemme consistant à choisir entre une attitude sceptique (nous ne pouvons fonder rationnellement nos croyances), et un attitude dogmatique consistant à accepter un certains de postulats comme évidents et ne demandant pas à être justifiés (par exemple, croyance que nos théories reflètent la structure du monde).
Les réflexions des épistémologues ultérieurs ainsi que les avancées faites par les scientifiques, loin de donner espoir d'arriver un jour à résoudre ces difficultés, n'ont fait qu'accentuer l'écart entre la certitude qu'on souhaiterait pouvoir attribuer à la science et le statut objectif qu'il convient de lui céder.





Aucun commentaire: