Science et techniques

[Le Monde Libertaire] Se réapproprier le progrès technique

Les rapports de la science dite fondamentale et des technologies, des sciences appliquées, des produits industriels issus de savoirs techniques très élaborés, sont d’une grande importance pour la conception d’une future société libertaire, tant la question de la définition des biens socialement acceptables est forte. L’article proposé ici constitue une utile piste de réflexion.

Jeter le bébé technologique avec l’eau du bain capitaliste, c’est se priver par paresse intellectuelle d’outils potentiellement utiles à la société.
Le capital a confisqué le progrès technique pour son profit. Il faut comprendre par quels mécanismes il a opéré et se réapproprier la chaîne de l’innovation afin de l’articuler autour d’une autre idée du progrès technique, un progrès que nous aurons redéfini. L’innovation et le progrès technique sont le fruit d’un processus que l’on pourrait découper en trois domaines distincts, à savoir la recherche fondamentale, la recherche et développement, et l’industrialisation.
Tout progrès technique s’appuie en premier lieu sur des outils théoriques et des paradigmes construits par la recherche fondamentale, qui suit théoriquement un intérêt purement scientifique.
Cependant, la science pour la science est un grand principe qui résiste difficilement à l’épreuve des faits, tant il y a débat sur la manière dont le capitalisme et la raison d’État gangrènent la recherche fondamentale et les décisions budgétaires.
En second lieu, la recherche et développement va s’appuyer sur les outils que crée la recherche fondamentale pour les appliquer au réel par l’ingénierie. Les applications développées, les prototypes, s‘ils remplissent les critères des investisseurs, pourront passer au stade de l’industrialisation. Ici, le jeu est déjà très clair. La recherche et développement est le fait de sociétés privées. Les prototypes sont développés dans l’optique du marché. L’étude de marché borne l’ingénierie. L’ingénieur peut bien avoir ses convictions, ses intuitions de scientifique, son idée du progrès technique, il n’en reste pas moins au service du capital. Sans promesse de rentabilité, pas d’application possible.
Le développement est piloté par un triptyque : rentabilité, délai, qualité.
Si les concepts de rentabilité et de délai n’entretiennent pas le doute quant à leur relation au capital, arrêtons-nous un peu sur la qualité. Il m’a un jour été rapporté la phrase d’un cadre d’une grande société pétrolière en visite sur un site d’extraction offshore. Elle plante très bien le décor : « On peut accepter la médiocrité, du moment qu’elle est rentable. » La qualité au sens du marché est donc toute relative. On pourrait parler de qualité mercantilement acceptable, voire de non-qualité volontaire pour des besoins de rentabilité. Les exemples abondent de téléphones portables, d’appareils hi-fi, de logiciels, etc., vendus dans un état de finition et de qualité tout juste acceptable, et accepté parce qu’on nous a habitués à leur médiocrité. C’est qu’il faut respecter les délais de mise sur le marché pour faire face à la concurrence. Il faut aussi garantir un cycle de vie du produit qui ne soit pas trop long, pour renouveler le parc très régulièrement. Le critère de qualité est subordonné à la rentabilité à court terme de toute activité. Et il est bien normal, dans une optique capitaliste, qu’un agent cherche à rentabiliser au maximum son activité.
Si on s’en tient aux gadgets électroniques, la qualité relative ne fait que dégrader notre quotidien. Mais les conséquences peuvent être autrement plus dramatiques sur des applications comme un véhicule automobile dont on ne peut garantir la fiabilité de l’électronique embarquée, ou une centrale nucléaire dont on sait qu’on sacrifie une portion de la qualité et de la sûreté au profit de la rentabilité.
Sur ce dernier exemple, on peut se référer aux documents confidentiels d’EDF sur l’EPR en construction à Flamanville, récemment exhumés par le réseau Sortir du nucléaire 1. Ces documents détaillent les choix techniques adoptés pour le pilotage et la sécurité de la centrale. Ils explicitent en fait clairement le sacrifice fait de la sécurité au profit de la rentabilité d’exploitation.
Le critère fondamental ici est bien la rentabilité. Si les promesses de profit justifient l’investissement de départ, l’application a de bonnes chances d’être industrialisée pour rencontrer les désirs et les « besoins » qu’on aura préalablement éveillés chez les consommateurs cibles.
Nous voilà donc à la troisième étape, l’industrialisation. L’ouvrier, lui, produit les nouvelles technologies. Il n’a pas son mot à dire, il n’y a aucune ambiguïté quant à son rôle : il subit. Il est exclu d’en appeler à sa subjectivité, à son idée sur le progrès technique. Les critères de rentabilité-délais-qualité ne sont pas toujours seuls en jeu. Le pouvoir étatique peut aussi avoir son mot à dire. Parfois, l’État a intérêt à huiler la grande machine de l’innovation, en particulier dans les secteurs dits stratégiques, comme le susmentionné nucléaire, ou l’industrie de l’armement. Soit il procédera par subsides prélevés sur l’argent public, soit par une réglementation avantageuse. Il marchera main dans la main avec le capital, tant pouvoir et argent aiment à entretenir de bonnes relations. N’en déplaise aux déistes du marché, il n’y a pas de main invisible qui autorégulerait tout, mais plutôt à la base la volonté de personnes qui se donnent les moyens de leurs ambitions.
Dans tous les cas, le point charnière sans lequel il n’y a pas d’innovation et d’application du progrès technique, est l’investissement. À la commande de l’investissement, c’est donc le capital et l’État qui ont pouvoir de vie ou de mort sur le progrès technique. Les acteurs capitalistes et étatiques utilisent le « progrès technique » comme prétexte à la recherche du profit et du pouvoir maximums.
Se réapproprier l’innovation technologique pour ne pas se la faire imposer requiert donc de se substituer aux acteurs capitalistes et étatiques.
On voit poindre alors toute l’importance du politique dans ce raisonnement, et cela démontre combien il importe de définir ce qu’est le progrès technique et de se réapproprier les décisions cruciales quant aux applications techniques. C’est le politique, dans le sens d’une communauté qui élabore des idées de vie, et non le capital, qui doit décider de la marche du progrès technologique. Comment en arriver là dans les faits ? Par l’organisation qui sera la plus à même de faire émerger des consensus en des instants et des lieux précis, de répondre le plus fidèlement possible à l’intérêt d’une communauté, sans faux-semblants ni intérêts masqués de quelques groupes de pression.
Un exemple concret de réappropriation de la production (de la conception par les ingénieurs à la réalisation par des ouvriers et techniciens) nous est donné par l’expérience Lucas Aerospace. En 1973, en Angleterre, suite à l’annonce d’un plan de restructuration et de 2 000 suppressions d’emplois, les salariés de ce groupe leader de l’aéronautique civile et militaire décident de prendre leur avenir en main et forment ce qui s’appellera le Projet Lucas 2. Ils créent un groupe interne à l’entreprise qui réunit des scientifiques, des ingénieurs et des ouvriers. Ils se fixent pour mission de redéfinir leur production. Quels biens utiles au plus grand nombre peuvent-ils produire compte tenu de leurs connaissances et de leurs savoir-faire, et comment peuvent-ils mieux les produire ? Comment peuvent-ils les produire dans une organisation non hiérarchisée, qui laisse place à la créativité et aux savoir-faire de chaque individu, tout en respectant les hommes et leur environnement ?
Ils ont trouvé des appuis dans certaines municipalités, dans certaines universités, qui leurs ont permis de mener à bien plusieurs projets. Leur plan de production était économiquement viable et plusieurs prototypes ont été construits et exposés. Les membres de ce groupe se sont cependant bien vite retrouvés isolés, pressurés par la direction, ignorés par les syndicats, salués mais bien vite abandonnés par le gouvernement travailliste de l’époque. Il reste de cette expérience une liste, non exhaustive et toujours en cours de définition, qui établit les critères fondamentaux d’un « produit d’utilité sociale ». Cette liste ne s’est pas construite théoriquement ou imposée par une hiérarchie, mais elle est le résultat d’une expérience partagée par tous les acteurs de ce projet. En parcourant les différents points qu’elle aborde, on se rend compte qu’avec l’idée initiale de redéfinir ce qu’ils allaient produire, la réflexion de ces hommes et femmes les a poussés à couvrir les notions de progrès technique, de progrès social et de progrès environnemental.
Aujourd’hui, alors que les fermetures d’usines et les restructurations s’abattent à un rythme effréné, alors que le productivisme et le culte de la croissance nous conduisent à notre perte, il faut plus que jamais soutenir ce flambeau.
Nier le progrès technique en bloc et jeter l’opprobre sur ses acteurs sans discernement, c’est finalement l’abandonner encore un peu plus aux pulsions morbides du capital. À travers cet exemple, on voit qu’outre la réappropriation de l’outil de travail, le déplacement des centres de décision au plus près de la production permet la redéfinition ponctuelle et évolutive de ce qu’on considère comme progrès technique. Les acteurs de la production se réapproprient ainsi l’outil et la finalité de leur travail. Ils questionnent cette finalité et ils remettent en cause son utilité sociale. On peut produire moins et mieux. Quand le capitalisme et l’état sont sortis de la boucle, le progrès se redéfinit par notre expérience de tous les jours et nos intérêts réels et communs.

Romain C.

1. Révélations d’une source interne à EDF, « l’EPR risque l’accident nucléaire » :
www.sortirdunucleaire.org
2. Revue Z, n° 3, Amiens, printemps 2010, « Working Class Heroes ». Mike Cooley, Architect or Bee ? The human price of technology, The Hogarth Press, Londres, 1987.

Source : Le Monde Libertaire

[Le Monde Libertaire] De la science comme émancipation et comme danger : la fructueuse ambivalence bakouninienne

Nous reproduisons ici de courts extraits de Dieu et l’État dans lesquels la conception bakouninienne de la science est condensée. Nonobstant le style et le lexique quelque peu datés, le propos conserve sa pleine pertinence pour l’élaboration d’une conception des sciences au sein du mouvement anarchiste, esquissée dans ce journal depuis la rentrée, selon laquelle d’une part, les sciences sont une modalité unique de l’agir humain sur le monde – puisque cette modalité est un entendement potentiellement délié des mensonges de la religion –, d’autre part que la science se doit d’être un savoir partagé, constitutif de l’individu autonome et non pas confisqué par une avant-garde, une technocratie spoliatrice de l’élan émancipateur des masses. La science visée par Bakounine est principalement celle qui, à son époque, est encore engluée dans une métaphysique pesante et stérile. En revanche, il loue les sciences naturelles, les sciences expérimentales, grosses d’un mouvement de compréhension du monde permettant de s’échapper des rets de l’ordre théologico-bourgeois*. Une filiation avec certains des plus importants philosophes des Lumières se lit dans ces lignes, alors même que la science de l’époque de Bakounine est devenue majoritairement positiviste et que le scientisme est érigé en nouvelle croyance. Par ailleurs, on remarquera, entre autres, une clause fondatrice de la pensée bakouninienne, à savoir un matérialisme remarquablement assumé, un matérialisme tout diderotien pourrait-on dire. On y lit encore, de manière intense, la tension entre une science qui pense le monde et une science qui veut souvent agir sur le monde. Tout cela résonne à nos oreilles contemporaines, cependant que l’on peut contester, avec le recul de plus d’un siècle, la rigide démarcation que Bakounine établit entre la science du général et les manifestations singulières des phénomènes. La science actuelle semble pouvoir se défaire de cette dichotomie autrefois nécessaire. Nous aurons sans doute l’occasion d’y revenir.

L’idée générale est toujours une abstraction, et, par cela même, en quelque sorte, une négation de la vie réelle. J’ai constaté cette propriété de la pensée humaine, et par conséquent aussi de la science, de ne pouvoir saisir et nommer dans les faits réels que leur sens général, leurs rapports généraux, leurs lois générales ; en un mot, ce qui est permanent, dans leurs transformations continues, mais jamais leur côté matériel, individuel, et pour ainsi dire palpitant de réalité et de vie, mais par là même fugitif et insaisissable. La science comprend la pensée de la réalité, non la réalité elle-même, la pensée de la vie, non la vie. Voilà sa limite, la seule limite vraiment infranchissable pour elle, parce qu’elle est fondée sur la nature même de la pensée humaine, qui est l’unique organe de la science.
Sur cette nature se fondent les droits incontestables et la grande mission de la science, mais aussi son impuissance vitale et même son action malfaisante, toutes les fois que, par ses représentants officiels, patentés, elle s’arroge le droit de gouverner la vie. La mission de la science est celle-ci : en constatant les rapports généraux des choses passagères et réelles, en reconnaissant les lois générales qui sont inhérentes au développement des phénomènes tant du monde physique que du monde social, elle plante pour ainsi dire les jalons immuables de la marche progressive de l’humanité, en indiquant aux hommes les conditions générales dont l’observation rigoureuse est nécessaire et dont l’ignorance ou l’oubli seront toujours fatals. En un mot, la science, c’est la boussole de la vie ; mais ce n’est pas la vie. La science est immuable, impersonnelle, générale, abstraite, insensible, comme les lois dont elle n’est rien que la reproduction idéale, réfléchie ou mentale, c’est-à-dire cérébrale (pour nous rappeler que la science elle-même n’est rien qu’un produit matériel d’un organe matériel de l’organisation matérielle de l’homme, le cerveau). La vie est toute fugitive et passagère, mais aussi toute palpitante de réalité et d’individualité, de sensibilité, de souffrances, de joies, d’aspirations de besoins et de passions. C’est elle seule qui, spontanément, crée les choses et tous les êtres réels. La science ne crée rien, elle constate et reconnaît seulement les créations de la vie. Et toutes les fois que les hommes de la science, sortant de leur monde abstrait, se mêlent de création vivante dans le monde réel, tout ce qu’ils proposent ou créent est pauvre, ridiculement abstrait, privé de sang et de vie, mort-né, pareil à l’homunculus créé par Wagner, non le musicien de l’avenir qui est lui-même une sorte de créateur abstrait, mais le disciple pédant de l’immortel docteur Faust de Goethe. Il en résulte que la science a pour mission unique d’éclairer la vie, non de la gouverner.
Le gouvernement de la science et des hommes de la science, s’appelassent-ils même des positivistes, des disciples d’Auguste Comte, ou même des disciples de l’école doctrinaire du communisme allemand, ne peut être qu’impuissant, ridicule, inhumain, cruel, oppressif, exploiteur, malfaisant. On peut dire des hommes de la science, comme tels, ce que j’ai dit des théologiens et des métaphysiciens : ils n’ont ni sens ni cœur pour les êtres individuels et vivants. On ne peut pas même leur en faire un reproche, car c’est la conséquence naturelle de leur métier. En tant qu’hommes de science ils n’ont à faire, ils ne peuvent prendre intérêt qu’aux généralités, qu’aux lois.
La science, qui n’a affaire qu’avec ce qui est exprimable et constant, c’est-à-dire avec des généralités plus ou moins développées et déterminées, perd ici son latin et baisse pavillon devant la vie, qui seule est en rapport avec le côté vivant et sensible, mais insaisissable et indicible, des choses. Telle est la réelle et on peut dire l’unique limite de la science, une limite vraiment infranchissable. Un naturaliste, par exemple, qui lui-même est un être réel et vivant, dissèque un lapin ; ce lapin est également un être réel, et il a été, au moins il y a à peine quelques heures, une individualité vivante. Après l’avoir disséqué, le naturaliste le décrit : eh bien, le lapin qui sort de sa description est un lapin en général, ressemblant à tous les lapins, privé de toute individualité, et qui par conséquent n’aura jamais la force d’exister, restera éternellement un être inerte et non vivant, pas même corporel, mais une abstraction, l’ombre fixée d’un être vivant. La science n’a affaire qu’avec des ombres pareilles. La réalité vivante lui échappe, et ne se donne qu’à la vie, qui, étant elle-même fugitive et passagère, peut saisir et saisit en effet toujours tout ce qui vit, c’est-à-dire tout ce qui passe ou ce qui fuit.
L’exemple du lapin, sacrifié à la science, nous touche peu, parce que, ordinairement, nous nous intéressons fort peu à la vie individuelle des lapins. Il n’en est pas ainsi de la vie individuelle des hommes que la science et les hommes de science, habitués à vivre parmi les abstractions, c’est-à-dire à sacrifier toujours les réalités fugitives et vivantes à leurs ombres constantes, seraient également capables, si on les laissait seulement faire, d’immoler ou au moins de subordonner au profit de leurs généralités abstraites.
L’individualité humaine, aussi bien que celle des choses les plus inertes, est également insaisissable et pour ainsi dire non existante pour la science. Aussi les individus vivants doivent-ils bien se prémunir et se sauvegarder contre elle, pour ne point être par elle immolés, comme le lapin, au profit d’une abstraction quelconque ; comme ils doivent se prémunir en même temps contre la théologie, contre la politique et contre la jurisprudence, qui toutes, participant également à ce caractère abstractif de la science, ont la tendance fatale de sacrifier les individus à l’avantage de la même abstraction, appelée seulement par chacune de noms différents, la première l’appelant vérité divine, la seconde bien public, et la troisième justice.
[…]
Ce que je prêche, c’est donc, jusqu’à un certain point, la révolte de la vie contre la science, ou plutôt contre le gouvernement de la science. Non pour détruire la science – à Dieu ne plaise ! Ce serait un crime de lèse-humanité –, mais pour la remettre à sa place, de manière à ce qu’elle ne puisse plus jamais en sortir. […] Elle n’a pu le faire que pour deux raisons : d’abord parce que, constituée en dehors de la vie populaire, elle est représentée par un corps privilégié ; ensuite, parce qu’elle s’est posée elle-même, jusqu’ici, comme le but absolu et dernier de tout développement humain ; tandis que, par une critique judicieuse, qu’elle est capable et qu’en dernière instance elle se verra forcée d’exercer contre elle-même, elle aurait dû comprendre qu’elle n’est elle-même qu’un moyen nécessaire pour la réalisation d’un but bien plus élevé, celui de la complète humanisation de la situation réelle de tous les individus réels qui naissent, qui vivent et qui meurent sur la Terre.

Michel Bakounine
Extrait de Dieu et l’État

*. On lira avec intérêt les analyses d’Irène Pereira (http://raforum.info [article « Bakounine : la révolte de la vie contre le gouvernement de la science »]), plus détaillées que ce que nous pouvons faire ici. Nous la rejoignons notamment dans son analyse de la critique que Bakounine adresse au matérialisme dialectique de Marx, empêtré dans un hégélianisme fatal – critique d’une pertinence considérable, acte novateur et proprement révolutionnaire. Si je puis résumer, en songeant à ma propre inclination épistémologique, Bakounine est plus proche de la modeste théorie de la connaissance d’un Darwin – mais ô combien prolifique en termes de résultats scientifiques – que de la grandiloquence du système conceptuel marxiste. (NdR.)

Source : Le Monde Libertaire

Sciences, techniques et autogestion ? Autogestion des sciences

La science commence dès le moment où l’Homme prend conscience de son environnement et systématise sa curiosité – produit de son instinct de survie – pour le comprendre et l’expliquer. Cette curiosité innée fonde la science et devrait être toujours présente au cœur de l’activité scientifique. Cet objectif de la science, comprendre et expliquer, s’applique à ce que sont les choses et les phénomènes, ce que nous observons et ce que nous sentons. La technique commence lorsque nous voulons tirer de l’utile de ce savoir ; alors entrent en jeu les intérêts particuliers des Hommes, et inévitablement les polémiques et les affrontements. Mais ce n’est plus de science qu’il s’agit.

La science serait de nos jours la Vérité dominante ; mais nous vivons dans des sociétés « ascientifiques » (95 % de Français paraissent ne pas s’intéresser aux sciences et seulement 2 % ont reçu une formation scientifique post-baccalauréat) et les divergences  entre scientifiques, aujourd’hui, ne se manifestent pas ou peu sur des fondamentaux, mais plutôt sur des détails techniques, concernant la validité de telle ou telle procédure technique.

La faute aux mathématiques et au capitalisme

Comme la science conserve un caractère provisoire et qu’il est inéluctable que des modifications de ses théories actuelles deviennent tôt ou tard nécessaires, pour certains, les « chercheurs de Vérités absolues », elle ne serait qu’un conte, une fiction narrative, une opinion parmi d’autres ; pour d’autres, « les critiques du système capitaliste », les mécanismes sociaux et la soumission des scientifiques aux intérêts économiques feraient de la science un instrument au service exclusif des puissants. Ces positions entraînent que sur le plan social le système de décision traite les détenteurs du savoir à peu près comme des outils et que le rôle des intérêts économiques, financiers, politiques est masqué. Ces deux critiques sapent la confiance dans la science alors qu’il n’existe aucune méthode en dehors d’elle pour démontrer quoi que ce soit, laissant ainsi le champ libre aux pires régressions, non seulement scientifiques et techniques mais aussi politiques et sociales. Nous avons parfois de la peine à savoir d’où parlent les gens: des « scientifiques audacieux » s’avèrent être des ultra réactionnaires sociaux et vice-versa il n’est pas rare que des « révolutionnaires audacieux » rêvent de savoirs artisanaux et paysans, de traditions perdues, de petits ponts sur la rivière et détestent les ponts qui enjambent les fleuves, les barrages qui les emprisonnent, et les satellites et les fusées qui encombrent le ciel bleu.

Complexité

Parmi les facteurs de mise en cause des sciences, l’un des plus importants est la mathématisation de la physique. La mathématisation est à l’origine de plusieurs phénomènes convergents qui tous tendent à renforcer l’autonomie du monde scientifique et en particulier de la physique, instaurant ainsi une très forte coupure sociale entre les professionnels et les amateurs ; la science est devenue un vrai coupe-gorge pour les voyageurs insuffisamment préparés. Et pourtant, depuis les Grecs, la géométrisation de la physique est évidente, et d’un point de vue logique la physique – sauf la physique théorique à son plus haut niveau d’abstraction – telle qu’elle se présente par exemple en théorie de la relativité ou en mécanique quantique, est la plus simple des sciences de la nature car elle n’énonce qu’un petit nombre de lois générales qui s’appliquent à un grand nombre de phénomènes. Beaucoup de ceux qui protestent contre l’envahissement des sciences par les mathématiques, alors que la physique est plus que jamais « géométrisée », mais sous la forme de géométries nouvelles (non euclidiennes, non commutatives, espaces abstraits, etc.), s’inquiétant de la « désubstantialisation » de la matière, en mettant l’accent sur les aspects relationnels, ne jugent pas bon de protester contre le mouvement « moderniste » qui a privilégié l’enseignement des mathématiques dites « modernes » (théorie des ensembles, algèbre de Boole, tables de vérité, algèbre binaire, etc.), qui, si elles peuvent présenter une utilité en philosophie, et pour certaines d’entre-elles en informatique, sont de bien peu d’utilité en sciences. Et ceci au détriment essentiellement de la géométrie, y compris dans les petites classes des lycées. Cette discipline dont on ne sait pas bien si elle doit faire partie des mathématiques ou de la physique, est d’une grande importance non seulement dans la vie courante parce qu’elle permet, sans doute mieux que toute autre discipline, l’apprentissage du raisonnement et la familiarité avec les objets du plan et de l’espace, mais aussi de développer des qualités d’imagination et des compétences techniques liées au maniement d’instruments de dessin.

La science devient un métier

La première révolution, la révolution copernicienne, ayant été assimilée vers la fin du XIXe siècle nous assistons depuis 1905 (relativité et quanta), à une autre révolution et à une accélération sans précèdent de la connaissance en physique et en chimie. Faudra-t-il attendre la fin du XXIe siècle pour que les recherches de pointe en cours aboutissent et que ses résultats soient assimilés et fassent partie de la culture scientifique de l’honnête homme du XXIIe siècle ?
Tandis que la révolution industrielle va accélérer le développement technique, la science et notamment la physique va connaître sur la même période un développement considérable. Ces deux révolutions sont d’ailleurs étroitement imbriquées, bien que la recherche fondamentale et ses applications soient souvent espacées dans le temps – le progrès technique, en retard par rapport aux avancées scientifiques, en est la démonstration – et réciproquement le progrès technique découlant des sciences appliquées et de l’ingénierie allait permettre, avec là aussi un certain retard dans le temps, de valider certaines hypothèses scientifiques
De fait la nouvelle physique, théorie de la relativité ou mécanique quantique, échappe à partir de 1905 à la compréhension commune. La science devient plus complexe et spécialisée ; elle ne pourra plus être appréhendée par le tout venant studieux, comme elle l’était auparavant. Ce phénomène d’incompréhension entraîne celui du rejet, qui va parfois jusqu’à la haine. Une des caractéristiques de ce phénomène est qu’il s’est moulé dans les grands conflits et querelles idéologiques du XXe siècle. Les nazis prennent prétexte du fait que la plupart des scientifiques précurseurs des théories de la relativité (Einstein qui en fut l’initiateur, mais aussi Minkowski, Levi-Civita, Grossmann, etc. qui ont fourni les outils permettant sa modélisation), étaient d’origine juive pour déclencher des campagnes antisémites en distinguant une science allemande et une science juive ; les nationalistes français quant à eux associent « la géométrie » à la science « allemande » et « la finesse » à la « science française », et les socialistes « scientifiques », les staliniens, s’inventent les concepts de science « bourgeoise » de science « prolétarienne ». Des savants renommés, pour certains prix Nobel, se sont associés à la débandade. Reste pour l’honneur des sciences allemande et française que les scientifiques les plus compétents (Planck, von Laue, Heisenberg, Sommerfeld, Hahn, Hilbert, Langevin, de Broglie, etc.) se sont tenus à l’écart des manipulations idéologiques de quelques-uns de leurs confrères et compatriotes.
Les révolutions scientifiques viennent rappeler à tous que la physique est, partiellement au moins, un savoir substitutif, une vérité technique du moment, au sens où une théorie physique peut en remplacer une autre et que par conséquent la connaissance cesse d’être un miroir mental de l’univers pour devenir un simple instrument à manipuler la matière. De là aussi qu’il est vain d’opposer science et technique, platoniciens et positivistes. Si comprendre et expliquer compte parmi les deux taches principales des scientifiques ils ne devraient pas sous-estimer les prédictions et les expérimentations montrant la conformité des mesures avec les théories, car c’est dans une « activité » et seulement dans le « faire » que s’opère la connaissance du monde. Les philosophes qui parlent de théorie de la connaissance et qui n’ont jamais rien fait, fabriqué, réalisé, construit, soigné, labouré, qui n’ont jamais agi personnellement sur la nature, nous semblent parler de ce qu’ils ignorent. L’on pourrait dire la même chose des partisans du capitalisme financier pour lesquels la seule chose qui vaille est l’extorsion de la plus value et qui dans le monde occidental font des services l’alpha et l’oméga de l’avenir des sociétés, oubliant qu’en les poussant trop loin, en ne fabricant, en ne construisant, et en ne produisant plus rien, le contact avec la matière et avec la nature se perd, et donc par là même contribuent à faire régresser les connaissances scientifiques et techniques et à dissuader la jeunesse de l’étude de ces disciplines.
Entre complexification croissante et implication politique, la science a perdu son aura progressiste, un peu naïve il est vrai, pour devenir, avec une bonne dose de hargne, ce « pelé, ce galeux, dont nous vient tout le mal ».

La science est-elle soluble dans l’autogestion ?

A rebours, nous pouvons considérer que la conquête de l’autonomie de la recherche scientifique et technique est nécessaire pour empêcher qu’une minorité de privilégiés du savoir en relation avec les responsables politiques, économiques et militaires continuent de contrôler la rapide transformation de nos conditions de vie. Mais est-ce possible sans une mise en cause radicale des principes politiques et sociaux qui régissent nos sociétés ?
L’autonomie que la science avait conquise peu à peu contre les pouvoirs religieux, politiques ou économiques, et partiellement contre les bureaucraties d’Etat, est aujourd’hui très affaiblie. Les mécanismes sociaux qui se sont mis en place à mesure qu’elle s’affirmait, comme la logique de la concurrence entre les pairs et l’importance des investissements pour mener à bien les recherches, fait qu’elle se trouve au service de buts imposées du dehors. Les scientifiques préfèrent que le jeu politique décide quelles seront les orientations de la recherche plutôt que de les déterminer eux-mêmes en fonction de motivations proprement scientifiques. De ce fait, les grandes orientations de la recherche sont presque toujours décidées par des fonctionnaires politiques souvent incompétents. On peut se demander si une autre orientation des crédits ne pourrait pas les conduire à de plus grands efforts théoriques et d’interdisciplinarité (sciences théoriques et expérimentales, philosophie, sociologie, etc.). On peut se demander si ces efforts ne permettraient pas de réduire les polémiques stériles, l’inflation expérimentale et la collecte de données dont, finalement, on ne sait tirer que peu de conclusions (et qui se traduisent par des expériences dispendieuses nécessitant des investissements considérables, souvent proches du gaspillage). Tout se conjugue pour qu’au lieu d’engager des chercheurs qui feraient avancer la recherche et la connaissance, le système politico-économique estime plus important de construire la plus grosse machine possible et de promouvoir le prestige de la Nation au moyen d’expériences spectaculaires, médiatisées à outrance, les seules que les électeurs comprennent. Engager des chercheurs représente une dépense « à fonds perdus », ce qui dans le cadre du système productiviste actuel n’est pas envisageable…
Une société autogestionnaire ferait-elle mieux ? Probablement qu’elle le ferait en simplifiant considérablement les problèmes, en partant d’idées simples, à savoir par exemple que la science doit contribuer à augmenter le bien-être matériel, à l’avancée générale de la civilisation ; qu’elle doit contribuer à empêcher que les activités humaines soient source de profit pour quelques uns, que la terre soit source de rente foncière, que règne partout l’exploitation de l’Homme par l’Homme. N’ayant pas à gérer la grandeur et la domination, une société autogestionnaire s’engagerait à respecter les équilibres les plus fondamentaux.

Casser la boîte noire

Par principe, la science dans une société autogestionnaire ne devrait pas poser de problèmes insurmontables et ceci parce que la science ne peut exister que si l’Homme est libre d’étudier et de chercher tout ce que sa curiosité lui demande. Et s’il vit en autogestion, comme tout un chacun, il aura la garantie de son autonomie.
Une société autogestionnaire ne pourrait pas limiter l’autonomie des scientifiques et par conséquent n’interférerait pas dans leur activité. Ce qu’elle pourrait faire serait de développer la recherche appliquée dans tous les champs qui permettraient un vivre ensemble plus humain et plus libre, avec l’accord des populations concernées.
Il n’y a pas de contradiction entre une science totalement libre (ce qui est une condition de sa bonne pratique) et une recherche appliquée (activité technique) autogérée. C’est-à-dire avec des plans concrets de recherche sujets à des rectifications ou des abandons s’ils sont en désaccord avec les objectifs de l’autogestion.
La première chose à laquelle devrait s’atteler une société autogestionnaire serait de favoriser une ambiance culturelle dynamique, même si cela parait difficile à une époque comme la nôtre, et qui rende transparents les axes de la recherche et les prises de décision en cassant la boite noire dans laquelle les forces politiques et économiques ont enfermé la science et ses servants. Cela se ferait en détricotant les réseaux basés sur des corporatismes et des intérêts particuliers, qui œuvrent au détriment de la recherche scientifique et de la société elle-même.
Pour cela il faudrait améliorer la culture générale scientifique par l’apprentissage de l’histoire des sciences, se battre pour que la compétence ne soit pas une idéologie technocratique se présentant comme étant sans alternatives (« on n’a pas le choix »), et en finir avec la tendance à diviser les gens en possesseurs et non possesseurs d’information, en compétents et incompétents. L’émulation, mot que nous préférons à concurrence, sera probablement nécessaire pour assurer la qualité et la diversité de la recherche, de même que la sélection des scientifiques. Mais une émulation et une sélection sans casse, ni des hommes ni des laboratoires.

Si nous les autogestionnaires nous inclinons devant le jugement de la science, si nous reconnaissons la réalité du monde dans lequel nous vivons, cela ne veut pas dire que nous nous proposons de soumettre les théories scientifiques au vote majoritaire, à l’épreuve du vote démocratique, aux assemblées souveraines composées de participants non-initiés aux problèmes posés. Cela peut sembler contradictoire avec ce qui a été dit précédemment ; mais c’est une erreur d’être esclave d’un système, car s’il est appliqué trop rigidement, il peut être préjudiciable si on ne l’adapte pas aux cas particuliers. Dans les disciplines scientifiques beaucoup de choses sont inaccessibles aux profanes, s’ils essayent d’aller en profondeur dans la compréhension des problèmes. Si les problèmes restent limités aux spécialistes (techniques, concepts, limites, formalismes mathématiques, etc.) cela n’a pas beaucoup d’importance. Le problème se complique lorsqu’il déborde sur l’ensemble de la population, qui devra se définir et faire des choix. Dans certains cas, il suffirait que les experts utilisent un vocabulaire accessible et des modèles simples et compréhensibles. Mais dans la plupart des autres cas, l’autogestionnaire de base sera bien obligé de faire confiance aux experts. Ce qui pose le problème de la coopération des scientifiques, des philosophes, des sociologues et des intellectuels en général, visant à la transparence des buts poursuivis par la science, de l’état de la recherche et de l’utilisation des financements consentis par la société.

Un problème de taille

La première des difficultés de l’autogestion c’est la façon de parvenir à mettre en œuvre le « comment ».
Comment redéfinir le partage des sciences et des connaissances de manière démocratique et sans secrets ? Comment expliquer ce qu’est un secret démocratique et qui seront les détenteurs de ce secret : une avant-garde éclairée, des experts très « démocratiques » ? Les chercheurs se sentent complètement impuissants contre la machine étatique et son dirigisme. Et c’est bien là le fond du problème. La communauté scientifique est dépossédée de tout pouvoir. Tant qu’elle ne reprendra pas son pouvoir et son indépendance face aux politiques elle ne pourra rien faire. La question serait moins d’être « pour » ou « contre » la science, mais bien comment se réapproprier les sciences et les techniques de manière démocratique. Quand on dit que certains secteurs d’activité de recherche doivent rester confinés à certains experts, qu’est-ce que cela signifie exactement ? Car il y aura toujours des prétextes pour qu’un secteur soit réservé à une petite communauté d’experts. Tant que le travail auprès des populations pour concrétiser leur réappropriation des moyens de la connaissance n’aura pas été mené par une alliance chercheur-citoyen, tout ce qui pourra être dit ou fait ne sera que vœux pieux et restera lettre morte. La science a été accaparée par le politique au détriment des populations et au bénéfice de l’initiative privée et de nouvelles formes d’oligarchies. Il s’agit dès à présent de construire les outils d’une réappropriation collective de la connaissance. Le système est complètement contrôlé de haut en bas, de l’intérieur (le dirigisme étatique) et de l’extérieur (les entreprises privées). Les chercheurs, seuls, ne peuvent pas faire grand-chose car elle est restée hermétique et détenue par des experts. Actuellement, c’est la dictature d’experts autoproclamés complices d’un dirigisme étatique. Par qui et comment est définie la qualité d’expert ? Quels sont les critères, qui les définissent ? Comment casser ça ?

Comment autogérer les sciences ?

Il y a comme une panne sèche de la pensée dans les mouvements anarcho-syndicalistes et libertaires à tous les niveaux, mais au niveau scientifique c’est encore plus flagrant. Quand par hasard nos publications écrivent sur l’autogestion il s’agit dans la plupart des cas d’autogérer de petites entreprises agricoles, industrielles ou commerciales. Or si les méthodes autogestionnaires ne permettaient pas de gérer de grandes entreprises, de grands réseaux (ferroviaires, électriques, etc.) ou des instituts de recherche de pointe, l’idée même d’autogestion serait une idée creuse.
Dans le domaine précis de la recherche de haut niveau les anarcho-syndicalistes ne produisent pratiquement plus rien, plus aucune analyse depuis la mort de Kropotkine en 1921, ses meilleurs ouvrages ayant été écrits fin du XIXe siècle.
Il nous faut donc convenir qu’il y a là un problème de taille.
Pour s’en sortir, la première chose à faire serait de chercher à vraiment comprendre ce qu’ont dit et fait les scientifiques qui ont étudié, qui étudient, les structures de notre monde. La deuxième chose serait, après avoir essayé de séparer le bon grain de l’ivraie, de tenter de voir si cela nous permet, une fois compris ce qui a été vraiment dit et fait, d’en tirer quelque chose pour nos propres théories. Etudier ce que d’autres courants de pensées sociales et politiques que les nôtres ont tiré des études relatives aux sciences de la nature pourrait nous aider. Bien sur s’il y a une difficulté de taille à éviter, c’est bien le dogmatisme. Bien souvent en faisant référence aux sciences de la nature l’on pourrait avoir tendance à exporter ses modèles aux plans politiques et sociaux, et à sombrer assez vite dans des schémas rigides. C’est un risque à courir : tout ce qui a été fait depuis la fin du XIXe siècle et le début du XXe siècle dans le domaine des sciences pourrait nous aider à trouver des réponses à nos interrogations sur la validité des idées autogestionnaires les concernant.
Généralement lorsque nous parlons d’autogestion nous faisons référence à la capacité des ouvriers et des travailleurs à gérer l’économie (donc la société) sans les classes dirigeantes (formées de plus en plus de techniciens dont les idées politiques s’effacent pour consolider les dominations de classe): mais cette gestion est fondée sur une appropriation collective directe des unités de production (ou de travail) de base.
Reste que si les travailleurs ont généralement accepté favorablement l’idée autogestionnaire, l’élément nouveau est le rôle des cadres et des scientifiques dans la société actuelle. Malgré la présence de cadres et de scientifiques qui sont aussi des militants révolutionnaires, une grande ambiguïté existe parmi eux concernant la validité de l’autogestion. Bien que des cadres, des ingénieurs, des scientifiques, des techniciens se sentent employés en dessous de leurs capacités, ils veulent souvent mieux organiser la production, participer au fonctionnement des entreprises, éviter les cloisonnements entre différentes entreprises d’une même branche et avoir leur mot à dire sur les axes à privilégier dans les recherches fondamentales et appliquées. Mais il est à peu près certain qu’ils ne voient pas l’aspect révolutionnaire qu’implique l’autogestion.
Et pourtant des physiciens travaillant dans le grand collisionneur de particules du CERN 1 sont fiers de dire aux visiteurs « qu’il n’y a pas de chef » et que « avec des arguments d’autorité c’est la fin de la science ». Ils pratiquent en fait une forme rudimentaire d’autogestion. Des communautés de centaines de physiciens se sont constituées, leur stratégie générale étant de laisser prospérer diverses options et de choisir celle qui leur semble la meilleure le plus tard possible, en profitant des dernières avancées de la technologie. Puis au bout de quelques années de faire le choix de celle qu’ils pensent être la meilleure option. Comment savoir quelle est la meilleure option ? En comptant sur la lente émergence d’un consensus et sur la solidarité et le talent de mandatés élus. Car les collaborateurs votent dans des sortes d’assemblées générales, chaque institut participant pesant une voix. Mais la solution n’est pas prise en fonction du nombre de voix, les chercheurs pensant que la majorité n’a pas forcément raison. Non, le système mis en place doit simplement désigner celui qui a raison. A force de discussions acharnées, d’engueulades et de persuasion, la proposition la plus conforme à l’intérêt général doit arriver à émerger et à rallier tous les avis.

Comme dans les organisations anarcho-syndicalistes, l’introduction d’éléments de décision supplémentaires, comme la multiplication des réunions – accompagnées des querelles qui s’y nouent, pourraient entraîner un alourdissement provoquant l’indifférence et une tendance des assemblées générales à devenir passives, d’autant plus que les problèmes à résoudre sont complexes. Mais il n’en est rien dans le cas des physiciens du CERN tellement les physiciens sont passionnés par leurs recherches et par leur espoir d’avoir contribué à une découverte qui ferait date.
Aussi pour que l’autogestion réussisse, aussi bien dans les sciences que dans toutes les autres activités humaines, le système social devra assurer la transmission et le développement des connaissances techniques et scientifiques pour tous sans lesquelles on ne peut pas parler d’autogestion et favoriser au moins trois choses : l’acquisition d’une bonne préparation technique, la liberté de création et la possibilité d’une appréciation finale par le public, qu’il soit grand ou petit.

Antonio, Syndicat de l’Industrie Informatique – CNT

Notes :
1    “La République des chercheurs” – Le Monde 28 juillet 2010

[Le Monde Libertaire] Télé, sciences et religion, un mariage forcé à l’autrichienne

L’ORF, en Autriche, c’est un peu comme l’ancien ORTF en France, à la fois télévision d’État et radio nationale. Comme partout, on parle de réduction des coûts et tout ce qui relève de la culture est facilement sacrifié. Ainsi, le directeur de l’ORF a décidé de placer le service en charge des émissions scientifiques sous l’autorité de Gerhard Klein qui était déjà responsable des émissions portant sur les religions. Klein est un théologien catholique… et l’on est en droit de douter que les émissions, portant par exemple sur le darwinisme ou les pilules abortives trouvent grâce à ses yeux ! Ce sont toutes les émissions concernant la bioéthique qui risquent ainsi d’être biaisées, sinon supprimées.
Ce n’est peut-être pas très étonnant dans un pays soumis au régime concordataire et c’est d’ailleurs le concordat entré en vigueur en mai 1934 qui définit toujours les relations entre l’État et le Vatican ! 1934-1938, c’est la période de l’austrofascisme, pendant laquelle le pouvoir émanait officiellement du dieu catholique, et non du peuple. Aujourd’hui, l’État finance à 100 % les écoles privées catholiques et dans les écoles publiques, la croix figure en bonne place dans toutes les classes, au-dessus du tableau, comme au-dessus des juges dans tous les tribunaux. Le cardinal Christoph Schönborn, archevêque de Vienne et proche de Joseph Ratzinger, s’était illustré en 2005 en défendant les théories du dessein intelligent 1 dans le New York Times. En Autriche, l’Église semble mener une offensive contre les sciences 2, plutôt que de s’occuper d’indemniser les victimes des prêtres pédophiles.

Jérôme Segal

1. Nous en reparlerons ici. (NdR.)
2. Et dans la France de Sarkozy, c’est pour quand ? (NdR.)

Source : Le Monde Libertaire n°1608 (14-20 octobre 2010)

[Le Monde Libertaire] Sciences & télévision

La littérature savante sur la vulgarisation scientifique à la télévision est riche et abondante. La politique sur ce même sujet est indigente et rare. Elle se contente de pondre des rapports parlementaires qui resteront sans effet.
Dans ce qui suit, je me suis plutôt attaché à déceler l’idéologie générale qui sous-tend tout discours télévisuel direct ou indirect, à propos des sciences et des techniques. Autant d’affirmations diffuses qui, à force de répétition péremptoire, agissent par imprégnation, finissent par faire système et deviennent de telles vérités qu’il serait malséant de les mettre en doute. Ce qui est l’inverse de la démarche scientifique…
Je l’ai fait en examinant les genres qui prétendent montrer le réel : reportages, documentaires, divertissements et publicités. La culture scientifique et technique y apparaît soit – rarement – comme sujet de vulgarisation, de façon volontaire et directe, soit – le plus souvent – comme objet culturel, de façon involontaire et indirecte. Le cadre d’analyse serait incomplet si on ne s’attardait pas sur le moteur même de la production télévisuelle : l’audimat. Au fil des années, cet indicateur boursier qui détermine le prix de la minute publicitaire s’est imposé comme une mesure universelle des goûts et des attentes des téléspectateurs. Une injonction divine de la marchandise à laquelle les dirigeants se doivent d’obéir sous peine de renvoi.
Tout le monde se souvient de la polémique soulevée par les propos d’un ex-PDG de TF1 : « Nos émissions ont pour vocation de le [le téléspectateur] rendre disponible : c’est-à-dire de le divertir, de le détendre pour le préparer entre deux messages. Ce que nous vendons à Coca-Cola, c’est du temps de cerveau humain disponible. »
Cette déclaration, jugée cynique quand elle n’est que naïve, a beaucoup scandalisé au lieu de susciter la réflexion. À y regarder de près, il semble plus pertinent d’inverser la proposition. Ce ne sont pas les émissions qui rendent le cerveau disponible à la réception du message publicitaire mais, bien au contraire, le message publicitaire qui a fixé et qui fixe encore les règles formelles des produits télévisuels, journaux télévisés et émissions politiques compris. Sur le strict plan des techniques narratives, la réclame a introduit des normes, un style, un savoir-faire qui se sont étendus à l’ensemble des émissions. Une gestion du temps, un rythme de montage, une esthétique visuelle et sonore, une façon d’éclairer, de cadrer. Il faut faire court, rapide, être dans l’urgence de l’actualité, ne jamais interrompre le flux. Le discours sur les sciences et les techniques n’est que l’un des éléments publicitaires de ce flux qu’il serait inconvenant de troubler par des silences, de la réflexion, de l’incertain.
Sans compter, par une crainte irraisonnée de perte d’audience, la starisation de certaines disciplines et, en corollaire, d’une petite poignée de scientifiques dont la principale qualité tient à leur supposée télégénie (« Il passe bien, il s’exprime bien »). Le scientifique est tour à tour le bon, la brute et le truand. Le bon, c’est l’ancien astronome émerveillé, qui vaut plus par la gaîté de son ignorance que par la gravité de son savoir. Il est soit rêveur et distrait, tout entier absorbé par sa tâche ; soit aventurier maniant le fouet aussi bien que le linéaire B 1. La brute, c’est le physicien nucléaire, le chimiste ou le biologiste. Il inquiète, il corrompt la Nature (avec un grand N), il se prend pour Dieu quand il n’est que démon. Le truand, c’est l’usurpateur, celui qui vole ou qui truque ses résultats. À l’image, le savant trône dans son laboratoire ou dans sa bibliothèque, appareils de mesures et livres en font le détenteur d’une connaissance indiscutable. Il est celui qui sait, dépositaire d’un savoir dont nous ne savons rien.
Ce type de transmission ne fait que produire l’effet inverse, puisqu’il remplace le savoir authentique par un culte du savoir. Une caricature, une mystification. « Une idolâtrie des supports humains du savoir » (Georges Simondon). En définitive, le scientifique n’y transmet que lui-même.
Du coup, le nombre de disciplines ayant droit de citer est si réduit que le monde des sciences s’apparente plutôt au monde du silence. La santé, présentée comme une discipline, se taille la plus grosse part d’un lion qu’elle partage avec les documentaires animaliers, la vie secrète des dinosaures, les premiers âges de l’humanité urbi (u) tero et orbi (u) tero, les mystères (sic) des pyramides, l’astronomie réduite aux éclipses et aux explorations spatiales, les randonnées sur les volcans du monde et l’écologie. France 5, la chaîne du savoir et de la connaissance, se fend d’une case dont l’intitulé officiel laisse rêveur : « Science, santé, environnement ». Santé (on trinque !) en lieu et place de sciences médicales. Sur TF1, Ushuaia, visite guidée des jolis coins « encore sauvages » de la planète, version animée du vieux magazine Géo. France 2, qui met en scène les frères Bogdanov, deux bonimenteurs de foire attifés en cosmonaute-mantique égrenant des sottises d’un air compassé. Autant d’émissions déclarées comme étant à caractère scientifique. À ce compte, l’absence vaudrait mieux que la mascarade.
Pour assurer sa pérennité, la télévision doit rassurer le citoyen téléspectateur sur la validité et la cohérence de ses idées, fussent-elles approximatives ou erronées. Elle donne à la doxa un label d’authenticité. Il n’y a là aucune volonté délibérée, aucun choix méchant d’abrutir les masses. « C’est d’ailleurs un bien curieux phénomène qui fait que des choses dont personne ne semble vouloir se font comme si elles avaient été pensées et voulues » (Pierre Bourdieu).
Transformation du discours scientifique en discours idéologique, la science (au singulier) y est présentée in fine comme une forme de croyance. Vidées de leur identité matérielle et concrète, les théories scientifiques sont figées dans le temps. Elles sont toujours présentées comme une explication définitive et totalisante, jamais comme le moment d’une description réfutable et parcellaire. Ce discours n’est que l’amplification et la légitimation des idées de comptoir sur la recherche scientifique, sur « ces chercheurs qui cherchent et ne trouvent pas », « qui se trompent souvent », « qui ne sont pas d’accord entre eux ». Et plus préoccupant encore, la permanence du discours relativiste 2 que l’on trouve chez une poignée d’intellectuels officiels. La représentation télévisuelle des sciences correspond bien à l’ambivalence de la représentation commune, qui peut se résumer par deux termes psychologiques : émerveillement et effroi. Émerveillement, avec la science comme sotériologie 3. Elle a la puissance divine du sauveur. Elle seule, dans le secret des labos, peut nous sauver de tous les dangers, de toutes les maladies. Effroi, lorsque sciences et techniques produisent des effets négatifs ou supposés tels : clonage, plantes alimentaires génétiquement modifiées, centrale nucléaire, téléphone portable, etc. L’émerveillement et l’effroi, par définition, n’admettent ni distinctions, ni nuances et se trouvent aux antipodes du travail des scientifiques. Et c’est ainsi que la télévision, sauf exception, ne raconte pas les sciences mais les trahit tout en méprisant ses spectateurs.

Robert Nardone, documentariste

1. Syllabaire utilisé pour l’écriture du mycénien, forme archaïque du grec ancien. (NdR.)
2. Voir l’article de Hervé Ferrière (ML 1603). (NdR.)
3. Partie de la théologie s’intéressant aux doctrines du salut. (NdR.)

Source : Le Monde Libertaire n°1605 (23-29 septembre 2010)

[Le Monde Libertaire] Y a-t-il des expériences cruciales en sciences ?

La notion d’expérience est cruciale en sciences, mais existe-t-il pour autant des expériences dites cruciales, de celles qui permettraient de décider assurément entre deux théories portant sur les mêmes phénomènes ?

Une expérience cruciale Ec est une expérience qui serait à même de décider entre deux théories, ou hypothèses, concurrentes T1 et T2 : si Ec favorise T1, T1 est acceptée et T2 rejetée, sur la seule considération d’un résultat observé au cours de Ec, et en vertu du principe logique de non-contradiction selon lequel un objet ne peut à la fois être A et non-A. L’histoire des sciences fait souvent le récit de ces expériences qui auraient donc le pouvoir d’emporter la décision quant à la valeur d’une théorie. Pourtant, les choses ne sont pas si simples.

Des exemples à méditer

Le physicien et philosophe Mario Bunge évoque un épisode montrant qu’une expérience dite cruciale est source d’interrogations et de doutes. « […] Kaufmann, […] professeur de physique expérimentale de l’université de Göttingen, […] avait mené des expériences sur la valeur de la masse en fonction de la vitesse et […] avait trouvé que l’équation d’Einstein était fausse. Einstein […] a simplement dit : « Il se trompe. » […]. Quelques années plus tard, Kaufmann, qui était un savant honnête, a découvert en révisant la conception de son expérience que le vide parfait n’était pas réalisé et qu’il y avait une fuite. Il a refait son expérience et a reconnu qu’Einstein avait raison. En somme, les réfutations ne sont pas plus durables que les confirmations. Toutes sont, à quelque degré, entachées d’un certain doute. 1 »
L’anecdote est grosse de plusieurs questions importantes sur le rapport théorie-expérience – qui n’est pas aussi univoque qu’on le dit ; on parle alors, pour caractériser ce rapport intriqué des faits et des théories d’« imprégnation théorique ». Un fait est en réalité un énoncé factuel interprété.
Revenons à Kaufmann. Il n’a pas fait d’expériences de contrôle pour estimer et circonscrire les éventuelles défaillances techniques de son dispositif expérimental – l’enceinte dans laquelle on fait le vide. Son expérience se voulant décisive est isolée dans le sens où elle n’est pas elle-même soumise à un contrôle de ses hypothèses auxiliaires, par exemple celles portant sur la perfection de l’étanchéité de la chambre à vide. Kaufman n’a pas fait d’erreur de raisonnement (il procède par ce qu’on appelé une inférence à la meilleure explication) mais il bute sur le contenu, et non la forme, de son raisonnement. Le cas Kaufmann nous apprend encore ceci : si une expérience Ex, dictée par une théorie T, requiert un vide poussé, mais que l’on ne possède pas de dispositif de mesure du vide, on peut considérer qu’une anomalie dans la mesure du phénomène suscité par T et recherché au travers de Ex constitue, indirectement, une mesure du vide. En effet, si un résultat R1 est attendu et qu’on obtient R2, il est alors possible de croire que le vide est défectueux. Croire que T est infirmée à cause de R2 est une option risquée, justement parce que T est capable de renseigner sur l’éventualité d’un défaut expérimental ou d’une variable non prise en compte.
L’expérience de Michelson et Morley (en fait une série d’expériences, entre 1881 et 1887) sur l’éther (hypothétique milieu support de la lumière – on l’appelle l’éther luminifère ; rien à voir bien sûr avec l’éther médical) est considérée comme une expérience cruciale. Mais comme le dit le physicien Michel Paty, « son importance historique a souvent été soulignée – et, d’ailleurs, controversée : elle illustre à merveille, sous la fausse évidence de son interprétation, la complexité du « statut » de l’expérience 2 ». Michelson et Morley ont expérimentalement montré que l’éther n’existait pas – alors que leur projet était de valider son existence. Ce résultat indiquait bel et bien une impossibilité physique – d’ailleurs pas acceptée par les auteurs de l’expérience –, qui sera adéquatement décrite par une théorie dotée d’une cohérence logique et d’une grande portée explicative : la relativité restreinte d’Einstein (1905). Michelson et Morley ont établi un fait – lui crucial – mais ce fait ne permettait pas de trancher entre les multiples théories proposées à l’époque – l’expérience n’était donc pas cruciale au sens indiqué en début d’article.
Il est un cas célèbre dans l’histoire de la physique qui présente les apparences d’une expérience cruciale positive (qui permet donc de conclure à la validité d’une théorie), celui de la théorie de la gravitation. Notons tout d’abord que la rivalité entre l’ancienne théorie de la gravitation, newtonienne, et la nouvelle, einsteinienne, n’est pas strictement conforme au schéma donné plus haut. En effet, il n’y pas symétrie entre les deux théories face aux phénomènes à expliquer. La théorie classique est muette au sujet d’une certaine classe de phénomènes que prédit la nouvelle théorie. En toute rigueur, les tests de celle-ci ne peuvent concerner la première, ce qui veut dire que si la théorie nouvelle échoue à passer ces tests, il ne s’ensuit pas ipso facto que l’ancienne théorie conserve toute sa primauté. Ceci montre encore une fois les limites de la notion d’expérience cruciale. Donc, en 1915, Einstein établit la théorie de la relativité générale. La théorie est mathématiquement satisfaisante. Reste le problème de sa validité physique. Parmi les nombreux phénomènes qu’elle prédit, un seul peut être mis en évidence par les outils expérimentaux de l’époque (les nombreux autres tests de la théorie seront effectués au cours du xxe siècle). Il s’agit de la mesure de la déviation des rayons lumineux au voisinage d’une masse suffisamment grosse, le Soliel par exemple. Ce test sera réalisé en 1919 par l’astronome Eddington. La théorie semble confirmée car l’expérience semble cruciale : les rayons sont bel et bien déviés. Or, en toute rigueur, il n’en est rien. L’observation, unique puisque portant sur un phénomène rare – une éclipse totale de Soleil – et donc non reproductible (sauf dans très longtemps, lors d’une nouvelle éclipse totale), pourrait avoir été ratée. Là encore, on aurait pu incriminer le dispositif expérimental, la fiabilité des mesures (portant sur un phénomène très ténu). Pourtant, cette observation fut acceptée comme un test crucial…
Autre cas, l’expérience de Lenard (1902). Cette expérience fut interprétée par Einstein comme une expérience cruciale tranchant entre théorie ondulatoire de la lumière et théorie corpusculaire de la lumière, en faveur de la seconde, et donc en faveur de sa théorie des photons en tant que constituants de la lumière. Cette expérience montre que la lumière adopte un comportement de type corpusculaire. Néanmoins, quelques années plus tard, la théorie de la lumière se brouillera à nouveau puisque si la nature photonique de la lumière est admise, la théorie quantique apportera une interprétation duale – ondes et corpuscules – de la lumière. L’expérience de Lenard n’avait pas été cruciale, ou du moins avait été temporairement cruciale…
Si l’on insiste autant sur ces cas liés aux travaux d’Einstein, c’est parce qu’on y voit en jeu la tentation – ou le rejet – de l’expérience cruciale, comme instance empirique de la décision en faveur ou en défaveur d’une théorie. Dans le cas Kaufmann, c’est ce dernier qui croit en la « crucialité » de son expérience, alors qu’Einstein ne s’y intéresse même pas, persuadé, pour des raisons non empiriques, du bien-fondé formel de son édifice théorique. Dans le cas d’Eddington, l’observation de la déviation des photons est considérée comme décisive – certes pas tout à fait cruciale, au sens le plus fort du terme – et Einstein dira qu’il ne doutait point de l’issue de l’observation, tant était forte sa conviction, intrinsèquement théorique, que la théorie gravitationnelle qu’il avait bâtie était solide. Dans le cas de Lenard, Einstein voit dans ces résultats d’expérience un test crucial. Alors, cruciale ou pas ?
Ces considérations nous permettent de conclure en rappelant un autre point important, que le physicien et philosophe Pierre Duhem mit en évidence dans son livre de 19063, puis qui fut repris par W.V.O. Quine en 1953 4, et que l’on connaît depuis lors sous le nom de thèse de Duhem-Quine. Si une expérience ne peut prétendre à être cruciale, ce n’est pas tant pour une raison empirique (faire tous les tests et contrôles souhaitables pour éliminer ce qui relèverait des défaillances expérimentales) que pour une raison épistémologique profonde : la solidarité logique des énoncés principaux et auxiliaires d’une théorie, et des théories adjacentes, elles-mêmes soumises, par contiguïté, à cette interrelation qui forme un réseau, le réseau théorique. La mise en défaut d’une hypothèse via une expérience particulière ne concerne pas que cette hypothèse principale, mais aussi toutes les hypothèses qui font corps avec elle, fussent-elles implicitement admises comme un arrière-plan de connaissance dont on ne discute plus 5. Duhem dit : « En réalité, il s’en faut bien que la valeur démonstrative de la méthode expérimentale soit aussi rigoureuse, aussi absolue ; les conditions dans lesquelles elle fonctionne sont beaucoup plus compliquées qu’il n’est supposé […] ; l’appréciation des résultats est beaucoup plus délicate et sujette à caution. Un physicien se propose de démontrer l’inexactitude d’une proposition ; pour déduire de cette proposition la prévision d’un phénomène, pour instituer l’expérience qui doit montrer si ce phénomène se produit ou ne se produit pas, pour interpréter les résultats de cette expérience et constater que le phénomène prévu ne s’est pas produit, il ne se borne pas à faire usage de la proposition en litige ; il emploie encore tout un ensemble de théories, admises par lui sans conteste ; la prévision du phénomène dont la non-production doit trancher le débat ne découle pas de la proposition litigieuse prise isolément, mais de la proposition litigieuse jointe à tout cet ensemble de théories ; si le phénomène prévu ne se produit pas, ce n’est pas la proposition litigieuse seule qui est mise en défaut, c’est tout l’échafaudage théorique dont le physicien a fait usage ; la seule chose que nous apprenne l’expérience, c’est que, parmi toutes les propositions qui ont servi à prévoir ce phénomène et à constater qu’il ne se produisait pas, il y a au moins une erreur ; mais où gît cette erreur, c’est ce qu’elle ne nous dit pas. Le physicien déclare-t-il que cette erreur est précisément contenue dans la proposition qu’il voulait réfuter et non pas ailleurs ? C’est qu’il admet implicitement l’exactitude de toutes les autres propositions dont il a fait usage ; tant vaut cette confiance, tant vaut sa conclusion. »
En bref, non seulement l’expérience dite cruciale n’a pas systématiquement la capacité d’invalider assurément une théorie, mais de surcroît, elle n’a pas nécessairement le pouvoir de lui substituer une explication novatrice concurrente. La rejeter totalement comme le fait Duhem est excessif : il existe bel et bien des expériences sinon cruciales au sens strict, mais sans doute hautement pertinentes quant à leur pouvoir de préférer une théorie à une autre. En tout cas, cette idée en dit long sur le difficile cheminement des sciences – entre certitudes et doutes – vers la vérité de leurs énoncés.1. Laurent-Michel Vacher, Entretiens avec Mario Bunge. Une philosophie pour l’âge de la science, Liber, 1993.
2. Michel Paty, « La question du statut de l’expérience en physique », Cahiers d’histoire et de philosophie des sciences, n° 40, 1992.
3. La Théorie physique, son objet et sa structure, éditions Rivière, 1906.
4. From a logical point of view, Harvard University Press, 1953.
5. Par exemple, personne de viendrait raisonnablement douter de l’« hypothèse » que la Terre est ronde ; il y a des limites évidentes à la remise en cause de la multitude des faits, thèses et hypothèses qui concourent à la formation d’une théorie relative à un nouveau phénomène à expliquer.

Marc Silberstein

Source : Le Monde Libertaire n°1607 (7-13 octobre 2010)

[Le Monde Libertaire] La culture scientifique au péril de la télévision

Les rapports de la télévision et des sciences sont particulièrement infructueux. La première, par son inculture croissante, son inféodation au marché, au commerce, ne rend compte des secondes – aux exceptions près – que sur des modes vulgaires, spectaculaires, ou encore mensongers.

Proz

Une absence assourdissante
Contrairement aux plaintes maintes fois répétées, les sciences ne sont pas si absentes que cela des programmes de télévision. Comment pourraient-elles l’être ? Elles constituent l’un des principaux piliers sur lesquels repose la culture occidentale. C’est vrai, les rares émissions qui leur sont spécifiquement consacrées balancent entre misère et cocasse. Mais certaines disciplines apparaissent en filigrane tout au long du flux : journaux, magazines, publicités. Ce fil de trame continu en dit plus long sur le point de vue télévisuel que les béates vulgarisations censées rendre compte de travaux scientifiques déjà dépassés.
On assiste à deux discours apparemment opposés. Deux avatars du débat depuis longtemps périmé entre nature et culture. En fait d’opposition, il s’agit de la même monnaie. Émerveillement et effroi. Côté pile, l’apologie du savoir et côté face l’apologie de la nature en opposition aux sciences des hommes. À ceci près que la nature télévisuelle réduite à la campagne, à la montagne et à la mer relève de la pure fiction. Et puis quelque chose d’immatériel, un concept flou flottant dans le ciel des idées reçues : un air, un comportement naturel, des manières et des matières naturelles. Ne reculant devant aucun oxymore, l’agriculture biologique y est naturelle (sic). La publicité va plus loin dans l’incohérence et taxe de naturel un yaourt ou une lessive (re-sic).
Dans les journaux et les magazines, les sciences et les techniques apparaissent au quotidien de deux manières bien distinctes : soit comme sujet, soit comme objet. Comme sujet, lié à un événement qui nécessite une explication et met en scène le scientifique abonné des plateaux : catastrophe, épidémie, découverte archéologique, découverte ou erreur médicale, curiosité astronomique, actualité spatiale, écologie, nouveau produit technique. S’en suit alors un discours simplificateur illustré par des images n’ayant souvent strictement rien à voir avec le sujet. Il est fréquent dans les émissions dites de variétés de voir un bateleur faire le boniment technico-scientifique. Cette minute est le moment comique de l’émission, une sorte de gimmick poujadiste douteux. L’animateur y joue soit le clown blanc prenant la pose du journaliste spécialisé en débitant des platitudes sur un ton affecté, soit l’auguste maladroit tournant en dérision et la chose et lui-même.
Comme objet, en toile de fond de l’actualité politique à travers les enjeux divers de l’industrie, de l’agriculture, des choix énergétiques ou de la santé publique. Le scientifique joue alors le rôle de témoin, d’expert ou d’inspecteur apportant des preuves irréfutables. La balistique, la biologie, la psychiatrie, la sociologie sont convoquées à propos des conflits militaires, des meurtres, disparitions, attaques à main armée, émeutes, bavures policières, procès, reconnaissances de paternité. Pas de sports de compétition sans intervention conséquente de la médecine, de la biomécanique, de la chimie, de la physique des matériaux et la psychologie. Dès lors, dans les reportages sportifs, il est souvent question de dopage, de nouveaux matériaux ou de nouvelles formes d’entraînement présentées comme étant plus scientifiques.
La science météorologique subit le même sort que ses consœurs. Des tendances probables et parcellaires sont présentées de façon définitive et globale, soit avec un sérieux papal, soit avec dérision. Sur un ton pontifiant, à l’aide d’une iconographie d’école primaire, le camelot commente en termes savants : anticyclone, dépression, perturbation, hygrométrie. Dans l’autre cas, pour bien afficher le peu de cas du travail des météorologues, une pin-up écervelée vient vendre ses appâts dans la vitrine, en échange de quelques nuages.

Les films publicitaires
La biologie et la génétique font autorité dans la réclame des objets de consommation courante. Elles garantissent l’efficacité des produits d’entretien des choses et des gens. Tel aliment est riche en oméga 3, telle crème corporelle a été testée scientifiquement, telle autre est « génifique » (sic). Dans les sociétés marchandes, le corps est objet de négoce, le nettoyant W.C. se voit dès lors doter des mêmes propriétés biologiques que le yaourt, le shampoing ou le dentifrice. Grâce aux mêmes énigmatiques agents actifs génétiques et aux compétences des laboratoires Truc, la lessive Toc donne au linge autant d’éclat que le shampoing Tic à la chevelure 1.
La réclame alterne nature et culture de façon quasi métronomique. Des eaux volcaniques au shampoing à base d’essences naturelles, produits « naturels » et produits « scientifiques » s’opposent dans un duel marchand. De cette fausse dualité, qui se retrouve dans toutes les émissions, se dégage une petite unité dramatique pourvoyeuse d’un message télégraphique naïf, erroné, mais clair. Ce message réducteur, mille fois répété, finit par s’imprégner bien mieux qu’il ne le ferait s’il était pensé et voulu. Il y a la Science d’un côté, la Nature de l’autre et l’Homme au milieu, le tout au singulier avec une majuscule. Une version religieuse des sciences qui les réduit à néant ; une idée simplette de la nature réduite aux dépliants touristiques.

La science ustensile
La télévision agit plutôt comme un écho de ce qui va de soi, des normes intégrées, des idées reçues et largement partagées, auxquelles elle donne une apparence de légitimité en les ordonnant systématiquement dans un discours plus ou moins cohérent. Tel un miroir grossissant de l’implicite qui filtre les gestes et les discours parasites, elle donne à voir dans sa crudité la manière dont une société se représente elle-même. Plutôt que des normes, elle propose des postures symboliques. Les pourvoyeurs du médiocre message télévisuel ne sont pas de machiavéliques et cyniques manipulateurs d’opinion. Ils ne sont au contraire que les petits éléments d’un système qui certes ne fonctionnerait pas sans leur complicité, mais qui les comprend et les dépasse. Ils doivent leur position tant convoitée à une sincérité et une naïveté désarmantes. Ils croient en ce qu’ils disent tout simplement parce que c’est ce qu’il se dit. Singuliers et cultivés, ils n’y auraient pas leur place. Leur ignorance et leur conformité sont les meilleures garanties de mise en phase de l’émetteur avec la totalité des récepteurs. Tout discours contraire ne sera pas mis à l’écart par censure, mais tout bêtement parce qu’il ne sera même pas entendu. Une télévision qui ne serait pas l’ordonnateur et l’amplificateur de l’idéologie dominante est inconcevable. Ce n’est même pas une utopie, un point de fuite, c’est un contresens. Le discours caricatural et antiscientifique qu’elle distille, en flux constant, sur les sciences n’est que la version vulgaire du discours officiel. Dans une société comme la nôtre, une science rentable – financièrement et symboliquement – est une science que ne cherche pas, c’est une science achevée qui doit rendre des comptes. À la rigueur on lui autorise de petites améliorations sans conséquences qui doivent confirmer le cadre existant et assouvir superficiellement le mythe du progrès. On peut même, ultime coquetterie, se satisfaire de ses mystères (sic) non encore résolus qui nous enchantent et qui sont la « preuve » des limites de La Science ! En résumé, une science sans sciences.

Robert Nardone, documentariste

1. Autre exemple récent, extrêmement caricatural : L’Oréal vend une gamme de produits « rajeunissants » sous le nom prometteur de « Code Jeunesse », avec comme slogan : « La science des gènes est entre vos mains. » Il est affirmé, en parlant de la peau, que « la technologie Pro-Gent a été conçue pour […] rétablir son code naturel de jeunesse » (nous soulignons). Il est spécifié que l’« efficacité [a été] confirmée cliniquement ». Une note en petits caractères indique qu’il s’agit d’une « auto-évaluation sur 52 femmes ». L’ensemble des mensonges scientifiques et des ruses rhétoriques en jeu dans ce court message publicitaire devrait alerter le Bureau de la vérification de la publicité. Il n’en est rien, évidemment. Gageons que Liliane Bettencourt (première actionnaire du groupe L’Oréal) n’en fait pas un usage intensif, à moins qu’elle soit la preuve (quasi) vivante de l’inefficacité desdits produits… (NdR.)

Source : Le Monde Libertaire n°1606 (30 septembre-6 octobre 2010)

[Le Monde Libertaire] Vers une nouvelle vision libertaire des sciences ?

Il est temps de dépasser le différend existant entre les deux familles des penseurs des sciences se réclamant de la tradition libertaire. Nous voulons parler de cette querelle qui oppose les réalistes aux relativistes que Normand Baillargeon a présentée brillamment dans son ouvrage Raison oblige 1 paru en 2010.
Les premiers – à l’exemple de Noam Chomsky – défendent une vision réaliste et rationaliste. Ils sont partisans du libéralisme radical hérité du projet émancipateur des Lumières. Ils font confiance à l’humain pour rechercher les moyens de trouver le bonheur et la liberté. Et, dans la lignée de Kropotkine et Reclus, ils pensent que les sciences font partie de ces moyens. Ils supposent que le monde réel nous est compréhensible et que notre raison peut parvenir à s’en « approcher ». Ils font quatre hypothèses fondamentales. D’abord un monde réel existe. Ensuite les scientifiques cherchent à comprendre ce réel avec précision et honnêteté. De plus, il existe une « structure cérébrale » propre à notre espèce nous conférant une immense faculté créatrice et la capacité à distinguer le réel du langage. Cette structure est une sorte de « nature humaine » qui nous permet de décrire le monde de façon compréhensible. Elle sert en quelque sorte de base solide et commune à toutes nos actions et pensées.
Ces hypothèses constituent des points de divergence essentiels avec les représentants de la seconde famille.
Ceux-ci, à l’image de Michel Foucault, de ses héritiers postmodernistes et des sociologues des sciences radicaux, sont irrationalistes. Ils sont peu ou prou partisans du relativisme : dans leur monde, toutes les opinions se valent a priori. Le travail des scientifiques et ingénieurs doit être mis sur le même plan philosophique que celui des guérisseurs et astrologues.
Ces penseurs critiquent le rationalisme et le réalisme. À les croire, le réel nous échappera toujours parce que nous sommes englués dans notre langage et nos représentations. La science moderne ne profère rien de « plus vrai » que les autres discours moins technicisés sur la nature. Nous sommes condamnés à émettre des énoncés relatifs à une époque, à des préoccupations sociales et politiques données. Les scientifiques n’ont pas de projet sinon celui de participer au pouvoir.
Cette attaque des scientifiques, des institutions savantes et d’une science centrée sur l’Occident chrétien, phallocrate et capitaliste, était nécessaire. En tout cas, elle répondait à une attente des années 1960-1970. On traversait une crise de la rationalité : le temps était à la contestation de la puissance militaire et technologique des Occidentaux, à la décolonisation, aux revendications des cultures minoritaires et des communautés opprimées. C’était aussi l’époque où le modèle soviétique faisait long feu. Ses chars venaient d’écraser les révolutions d’Europe centrale. D’autres exemples, hors d’Occident, paraissaient prometteurs. Alors, ces libertaires ont cherché à défendre les femmes, les homosexuels, les rebouteux, les mouvements culturels régionaux, etc., tous ceux que la science occidentale aurait longtemps écrasés du poids de la Raison scientifique. Ils s’attaquèrent à l’autorité des scientifiques parce qu’elle leur paraissait totalement illégitime, car basée sur une « soi-disant » capacité humaine à connaître le monde réel. Ils voyaient les scientifiques comme des technocrates et agents de l’acculturation de masse, de l’industrialisation forcenée et de la mondialisation capitaliste. Ils cherchèrent à défendre la diversité humaine – « l’humadiversité » – contre l’idée d’une nature humaine commune et rationnelle, trop occidentale. Certains prétendirent même que cette nature humaine n’existait pas. Il n’existait pas davantage de valeurs communes à l’humanité. Le monde réel devenait flou et inaccessible. Le relativisme radical tuait la dernière autorité qui restait : celle des faits. Il ouvrait alors inconsciemment la porte au révisionnisme historique, au cynisme et à l’impuissance politique, car finalement – tous les discours se valant – au nom de quelle valeur ou de quelle nature humaine se battre contre les oppresseurs ? Et avec quel objectif si tous les systèmes se valent en fin de compte ?
La remise en question définitive de tout discours scientifique et l’absence de propositions alternatives menaient à une impasse. À quoi bon discuter de liberté, d’émancipation ou d’égalité si ces valeurs sont relatives à une époque et si leurs définitions ne sont que les résultats de rapports de force ? À quoi bon lutter si l’exploitation, la misère, la pollution, l’inégalité ne sont que des vues de l’esprit et non des faits étudiables scientifiquement ? Il n’y a plus rien à attendre de vrai d’un univers où les scientifiques ne tiennent qu’un discours parmi les autres.
le relativisme est une impasse et ne permet même pas de défendre les opprimés contre un système productiviste assassin et une acculturation menée à marche forcée.
Cette controverse est certes fondamentale mais elle doit être dépassée. Or, elle est dramatique pour au moins deux raisons que nous nous bornerons ici à citer.
Cette opposition est dramatique d’abord parce qu’elle est profondément contre-productive : le relativisme est une impasse et ne permet même pas de défendre les opprimés contre un système productiviste assassin et une acculturation menée à marche forcée. Et ensuite parce qu’elle est source d’incompréhension dans le « grand public ». Ce dernier est présenté pour rétif aux sciences ou pour le moins méfiant, parfois relativiste et sensible aux discours pseudo-scientifiques. Mais qui écouter si certains penseurs présentés pour libertaires expliquent doctement que « tout se vaut » et que les faits scientifiques sont les fruits de constructions sociales et politiques comme n’importe quelle opinion ? Avec qui dialoguer : avec les gogos médiatiques préférés du président 2 ou l’ingénieur agronome plaidant pour un retour à une agriculture respectueuse de la nature, si tous les avis se valent ? Comment retrouver une nouvelle vision libertaire et libératrice des sciences sans tomber dans le relativisme total ?
Nous pensons, comme Normand Baillargeon, qu’il ne suffit plus de dénoncer l’excès d’autorité dont a fait preuve le lobby scientiste, il faut maintenant passer à l’offensive : proposer, en s’appuyant sur les scientifiques responsables, de nouveaux modèles d’organisation sociale et redonner aux sciences leur rôle émancipateur.

Hervé Ferrière, historien des sciences, IUFM de Guadeloupe

1. Raison oblige. Essai de philosophie sociale et politique, Presses universitaires de Laval (Québec).
2. Les frères Bogdanov, pseudo-scientifiques à la surmédiatisation usurpée, dont le projet de longue date de faire entrer Dieu dans le périmètre de la cosmologie est, semble-t-il, très apprécié de Sarkozy et de nombreux membres de l’UMP qu’ils côtoient fréquemment. (NdR.)

Source : Le Monde Libertaire n°1604 (16-22 septembre 2010)

[Le Monde Libertaire] La science victime de l’hypercriticisme

La question du scepticisme en sciences est cruciale. La « méthode » sceptique est une nécessité de l’acte même de chercher une explication à un phénomène donné. Employée abusivement, à des fins idéologiques ou par ignorance, elle se transforme en hypercriticisme, une outrance permanente et spécieuse qui nie l’esprit même de la démarche scientifique. Cet article l’illustre avec l’exemple de la négation des causes avérées de la destruction des tours du World Trade Center.

Neuf ans après les faits, la question portant sur l’analyse scientifique des attentats du 11 septembre 2001 reste encore très polémique. En effet, dans le champ des explications alternatives radicales et pour les adeptes du complot interne de l’administration américaine, les tours jumelles du Word Trader Centre (WTC1 et WTC2) étaient bourrées d’explosifs, un missile ou un véhicule piégé serait venu détruire une partie du Pentagone, et un avion de chasse américain aurait abattu un avion civil en plein vol pour une raison aussi floue qu’inconnue.
C’est dans cet esprit social inquiet que Jérôme Quirant, agrégé de génie civil et maître de conférences au Laboratoire de mécanique et génie civil (UMR 5508 CNRS/université de Montpellier 2), a décidé de créer en 2008 un site Internet dédié aux questions techniques portant sur ces attentats 1. Il vient de publier deux ouvrages de réflexions et d’analyses techniques liés à ces événements 2. Face aux multiples théories alternatives remettant en cause radicalement la version « officielle » des rapports scientifiques, au travers de livres, de films ou de sites Internet, Quirant a souhaité répondre aux légitimes interrogations techniques de tout un chacun au moyen de la raison, de la méthode scientifique, de l’expertise, de la vulgarisation et du domaine qui semble le mieux convenir à ce type de problématique : le calcul des structures.

Le cas des tours
Démontant les rumeurs, Quirant nous explique que sans rechercher des causes cachées ou manipulées, une connaissance minimale des bases de la physique et l’étude des structures des bâtiments suffisent à comprendre l’effondrement des tours WTC1 (417 mètres) et WTC2 (415 mètres), victimes d’une série de contraintes et de sollicitations inhabituelles : imaginons la puissance d’un impact de Boeing 767-200 (une centaine de tonnes lancées à 800 km/h), avec ses réacteurs, ses éléments rigides et « près de trente mètres cubes de kérosène » où ce dernier, joint à des éléments internes (matériels, consommables, etc.), a nourri un incendie et fait monter la température « rapidement au-delà de 1 000 °C », créant une modification importante de la résistance et de la rigidité des structures mécaniques au centre et à la périphérie des tours, engendrant un phénomène de flambement ; des éléments de protections incendies endommagés ; des « planchers […] suspendus […] calculés uniquement pour supporter leur propre poids » et non pour « stopper l’effondrement des blocs supérieurs » soit « une charge égale à 15 ou 30 fois celle pour laquelle il avait été calculé » ; un environnement en (sur)pression, etc. La tour WTC1 s’est effondrée au bout de 102 minutes et la tour WTC2 au bout de 56 minutes. Quant à la tour WTC7 (173 mètres), ce sont essentiellement « les débris de la tour WTC1, située à un peu plus de 100 mètres, qui ont heurté sa façade sud », causant un incendie (aidé par du fuel, des matériels stockés) de presque sept heures, déstabilisant cette structure (dilatations, ruptures de liaisons, etc.) prévue pour résister à un incendie de deux à trois heures, qui ont engendré d’abord « un effondrement interne » puis « une rupture du bâtiment à sa base » (dans le cas des tours WTC1 et WTC2, l’effondrement s’est produit de haut en bas).

Le fantastique et la raison
Charles-Victor Langlois et Charles Seignobos décrivent dans leur Introduction aux études historiques 3 la position hypercritique comme « l’excès de critique qui aboutit, aussi bien que l’ignorance la plus grossière, à des méprises. […] L’hypercritique est à la critique ce que la finasserie est à la finesse. Certaines gens flairent des rébus partout, même là où il n’y en a pas. Ils subtilisent sur des textes clairs au point de les rendre douteux, sous prétexte de les purger d’altérations imaginaires. Ils distinguent des traces de truquage dans des documents authentiques. État d’esprit singulier ! à force de se méfier de l’instinct de crédulité, on se prend à tout soupçonner ».
Quirant pointe un certain nombre d’éléments qui favorisent l’émergence et le développement de théories complotistes que je qualifierais justement d’hypercritiques. Tout d’abord, le manque de rigueur, les raccourcis erronés, les analogies trompeuses, les interprétations hasardeuses, des témoignages imprécis, une absence de compétences techniques et scientifiques, une « méconnaissance évidente des bases élémentaires de la mécanique, du calcul des structures ou du comportement des matériaux » comme celle des techniques de démolition contrôlée, des calculs fantaisistes, des réactions exaltées et dogmatiques plus que raisonnables et posées, une certaine « idée de faire partie des “initiés”, ceux qui savent envers et contre tous », une utilisation et un abus « d’effet de manche et de rhétorique », un déplacement vers des « considérations géo-politico-stratégiques, afin de donner du sens à des phénomènes physiques qu’ils ne maîtrisent pas » où « certains voudraient aujourd’hui réécrire la mécanique pour la mettre en adéquation avec leurs croyances », discréditer tout technicien ou scientifique chargé des analyses scientifiques remettant un document « officiel » qui « fait consensus au sein de la communauté du génie civil ». Sur ce dernier point, tous les scientifiques mentiraient et la communauté scientifique internationale comploterait dans un seul et même sens pour un même et unique but. Tout ce beau monde ne serait finalement « que des imbéciles qui n’y voient pas plus loin que leur nez. Car il faut vraiment être un sacré crétin pour ne pas voir ce que le truther 4 moyen, armé d’un simple clavier et de sa souris, arrive à débusquer. […] Malheureusement, la bonne compréhension des phénomènes mis en jeu nécessite parfois de tels prérequis, ou un tel effort de réflexion et d’analyse, qu’elle reste inaccessible pour beaucoup. Il est alors bien plus facile, en faisant trompeusement appel au “bon sens”, de se réfugier dans une explication simpliste qui présente l’avantage d’être compréhensible par tous ». « Il est nettement plus facile de proposer une solution alléchante et simpliste en une phrase péremptoire, qu’une démonstration scientifique de plusieurs pages, alourdies de formules mathématiques. »
Les théories alternatives complotistes hypercritiques ne se rendent pas compte de l’impressionnante logistique qu’il aurait fallu mettre en œuvre, en hommes et en matériels, avec une minutie et une exactitude incroyable (pour mettre sur pied un complot interne, le sabotage d’immeubles préalablement affaiblis ceci en toute discrétion – en secret –, la disparition d’objets en tout genre, la falsification de données et le montage d’informations, le musellement voire l’exécution de gêneurs, etc.), le tout sans une seule fuite ou preuve matérielle concluante. Au final, Jérôme Quirant propose comme il est d’usage dans la communauté scientifique que les contradicteurs proposent et soumettent des articles techniques et scientifiques au sujet de leurs thèses alternatives à des revues adéquates (éviter par exemple les revues d’architectes d’intérieur, de cinéma, de littérature, de finance, de géostratégie, etc., mais plus en rapport avec le génie civil), reconnues comme sérieuses dans le milieu scientifique, avec un comité de lecture, des reviewers, etc., pour les faire valider. Pour le moment, aucune de ces théories alternatives « ne tient la route d’un point de vue scientifique. Aucun spécialiste du domaine n’a remis en cause les grandes lignes des conclusions validées par la communauté ».

Valéry Rasplus, essayiste, sociologue

1. www.bastison.net
2. Jérôme Quirant, 11 septembre et théories du complot, ou le conspirationnisme à l’épreuve de la science, Book-e-book, 2010 et La Farce enjôleuse du 11 septembre, Books on Demand, 2010.
3. Hachette, 1898. Disponible en ligne sur http://classiques.uqac.ca/
4. On désigne ainsi celui qui rejette les explications courantes des événements du 11 septembre (NdR).

Source : Le Monde Libertaire n°1603 (9-15 septembre 2010)

Le logiciel libre, une alternative anarchiste ?

Avec le succès des logiciels libres, la presse « branchée » s’est emparée d’un nouveau scoop : une horde de hackers « anarchistes » peut mettre en péril les world-companies centrées sur l’édition du logiciel comme Microsoft. Et en effet, le fait que ces logiciels, développés en quelques années avec une logique non-commerciale, anti-hiérarchique et anti-propriétaire, puissent être technologiquement très supérieurs à des produits commerciaux classiques est une forte remise en cause des « lois du marchés » actuelles : propriété privée, secret commercial et management … En outre, leur caractère « gratuit » (par Internet, ou par des copains qui ont déjà le CD) et surtout « libre » (personne ne peut prétendre avoir des droits d’auteurs ou autres dessus, et les textes des programmes sont accessibles par tous) peut permettre aux utilisateurs de ne plus être dans l’état de consommateur soumis, imposé par Microsoft & co. Au contraire, les utilisateurs ont désormais la possibilité de modifier les logiciels pour leurs besoins personnels, et d’en faire profiter le reste du monde. Ceci pourrait bien influer sur un avenir qui dans ce domaine s’annonçait plutôt totalitaire. Néanmoins, cette communauté de hackers (composée de chercheurs universitaires ou de bénévoles passionés à travers le monde) n’a pas d’ambition révolutionnaire, et est tout à fait prête à s’accomoder au capitalisme, si celui-ci s’adapte à elle.

1. Historique

La production informatique mondiale a essentiellement trois origines : militaire, commerciale et « indépendante ». Cette dernière est due à des universitaires (relativement libres de l’orientation de leurs recherches) et des informaticiens passionnés indépendants (« hackers »), qui développent par plaisir ou pour la gloire. Historiquement, beaucoup de grandes avancées de l’informatique (comme Internet, Unix, le langage Ada, …) ont comme origine des vastes projets du gouvernement américain (ou de l’armée américaine) qui n’arrivant pas à terme à cause de leur démesure, ont été laissé comme « jouets » à des universitaires. Mais, depuis quelques années des grandes entreprises commerciales (IBM, Intel, Microsoft, …), qui ont la capacité de s’accaparer toutes les innovations, menacent d’asservir totalement l’informatique : un certain nombre de logiciels commerciaux risquent de devenir des « standards » incontournables. 
En réaction, les « indépendants » en impulsant le projet GNU et de la Free Software Foundation (fondation pour le logiciel libre) ont dévéloppé leurs propres logiciels avec des copyrights (appelés avec humour « copyleft ») qui permettent leur diffusion libre (et généralement gratuite), sans que quiconque ne puisse se les approprier. Et ces logiciels comme GNU-Linux ou Gimp concurrencent largement leur principaux « équivalents » commerciaux Windows-NT ou Photoshop. Par exemple, le serveur Web le plus utilisé dans le monde est un logiciel libre (nommé Apache).

2. Mode de production du « logiciel libre »

Si un mode de production « alternatif » (cf. [4]) a pu se développer sur une large échelle dans l’édition du logiciel, cela tient au fait que le coût de copie et de distribution d’un logiciel (par opposition au matériel) est quasi-nul : n’importe quel particulier peut inventer un programme qui va se propager sur l’ensemble de la planète. C’était déjà vrai dans les années 80 (le coût de copie de logiciels se comptait en disquettes), mais c’est encore plus vrai depuis les années 90 avec l’avènement mondial d’Internet : n’importe qui peut mettre ses logiciels sur sa page Web, et n’importe qui d’autre peut le télécharger (au prix de la télécommunication). L’essentiel du coût de production d’un logiciel réside donc dans la matière grise qu’il a fallu mettre en activité pour le « développer » (c’est-à-dire l’écrire). Au contraire, même si les universitaires participent à l’innovation matérielle, leurs inventions ne peuvent être produites en masse que par des entreprises.
Ayant des liens profonds avec le monde universitaire, cette production « indépendante » est souvent publique et collective. Chacun peut regarder le texte des programmes et y apporter ses propres modifications. Unix, un système d’exploitation (logiciel qui permet de gérer un ordinateur) créé dans les années 70, pour fonctionner en réseau, en multi-tâche et multi-utilisateur, est un bel exemple de ce type de production. Aussi, lorsque dans les années 80, AT&T (société américaine privée de télécommunications) s’approprie le copyright de ce logiciel, la communauté universitaire américaine est désemparée de se faire « voler » son bébé. Elle réagit en créant GNU (acronyme de « GNU is Not Unix »), un projet de continuer l’aventure Unix, en logiciel libre, c’est-à-dire protégé par la GPL (license publique générale, cf. [1]) empêchant ainsi des individus de prendre contrôle d’un projet collectif de développement de logiciel.
Cette création collective de logiciel jusqu’alors cantonnée autour de grands centres universitaires (comme Berkeley ou le MIT) s’est étendue à l’ensemble du monde avec Internet. Des milliers de particuliers ont participé au développement de Linux, un système d’exploitation pour PC de type Unix, gratuit, mais qui dépasse largement son commercial et onéreux concurrent Windows-NT. Et même s’il manque encore (mais plus pour longtemps) d’applications bureautiques (traitement de textes, tableur, …) « grand public », il compte aujourd’hui 7 millions d’utilisateurs dans le monde. Ainsi, le mode de dévéloppement même de Linux est une petite révolution dans le milieu. Il va à l’encontre des principes fondamentaux de l’organisation traditionnelle de la production : hiérarchie des décideurs jusqu’aux exécutants, secret commercial et propriété intellectuelle. En effet, n’importe qui peut développer son propre Linux dans le sens où il le désire. Mais, ce projet individuel ne peut prendre de l’envergure que si on parvient à convaincre le reste de la communauté de l’intérêt de ses idées. Pour cela, il faut communiquer…
La communication passe en général par les forums de discussions internet, et éventuellement le courrier électronique. Les participants de ces forums s’échangent des problèmes, des conseils, des solutions, … : chacun participe suivant son temps et ses connaissances pour retirer des connaissances de ces forums en faisant partager les siennes.
Cette forme chaotique de communication est le coeur d’une des principales forces de Linux : sa grande évolutivité. Cela se traduit notament par la fréquence élevée de ses mises à jour : jusqu’à plusieurs fois par semaine pour les versions instables (versions dans lesquelles ils restent pas mal d’erreurs), et de l’ordre d’une fois tous les deux mois pour les versions stables (versions utilisables par des utilisateurs novices). Traditionnellement, la fréquence des mises à jour se mesurent plutôt en année. Ce phénomène fait de GNU-Linux un système extrèmement fiable : étant donné le nombre de développeurs les erreurs sont détectées très rapidement, et elles sont presque aussitôt corrigées. Ainsi, les corrections du dernier bug du pentium (erreur matérielle au niveau du micro-processeur) étaient prêtes sous GNU-Linux quelques jours seulement après sa découverte.
La réussite de ce mode d’organisation tient au fait que la production du logiciel est hautement technique et évolue très rapidement. Un mode de production basé sur la compétition, la hiérarchie et le secret commercial est dans ce cadre nettement moins efficace qu’un mode de production basé sur la collaboration et la communication. En fait, c’est particulièrement évident pour les chercheurs universitaires, qui ont l’expérience qu’aucune recherche scientifique fondamentale de haut niveau n’est envisageable hors d’un cadre non-propriétaire (sans droits d’auteur) et ouvert (les recherches sont rendues publiques).
Le mode de développement du logiciel libre mérite donc sans doute le qualitif d' »anarchiste ». Mais cet anarchisme est assez individualiste. Les individualités qui ont des projets se lancent dedans avec le mot d’ordre « qui m’aime me suive », et si effectivement ils sont suivis, ils deviennent dans la pratique assez incontournables dans les prises de décisions fondamentales. C’est le cas de Linux, projet lancé par un étudiant nommé Linus Torvald (Linux vient de « Linus Unix »). Bien sûr, rien n’empêche ceux qui seraient en désaccord avec ces « leaders charismatiques » du projet, de continuer celui-ci dans leur coin selon leur guise.

3. Enjeux sur l’émancipation de l’utilisateur

Un autre aspect de la « révolution GNU-Linux » est la remise en question de l’utilisation du logiciel. En ayant le texte des programmes (et le droit juridique de les modifier), les utilisateurs ont désormais la possibilité de comprendre comment marche le système d’exploitation, et éventuellement d’aller modifier ce texte pour l’adapter à leurs besoins. Bien sûr, tous les utilisateurs n’ont peut-être pas le temps ni l’envie de devenir programmeur système, mais ils peuvent espérer avoir une plus grande indépendance vis-à-vis des développeurs du système. Par exemple, quand on est chez soi, on aime pouvoir bricoler un petit peu sans être plombier ou électricien. Ben là c’est pareil : on a la possibilité de bricoler ses logiciels sans être un expert. Et si on bricole souvent, on peut finir par devenir soi-même un expert.
Cela peut sembler peu de chose, mais cette possibilité est probablement ce qui fait la différence entre un monde technico-totalitaire, où les individus sont dépendants de quelques experts mondiaux qui protègent jalousement le secret de leur « magie », et un monde où la technique est au service des individus qui peuvent apprendre librement à la dominer.
Pour mesurer l’ampleur de cette ambivalence de l’informatique, à la fois outil de domination ou d’émancipation, on peut s’intéresser au rapport entre l’édition du logiciel et l’école. En effet, celle-ci peut justement soit servir à endoctriner les individus, soit leur apporter les connaissances et l’esprit critique qui en feront des êtres plus libres. D’autant plus que depuis quelques temps, on nous en rabat les oreilles : l’éducation représente un énorme marché (voire LE marché du XXIième siècle). Dans un contexte de privatisation de l’enseignement, le « passage aux nouvelles technologies » ou « la nécessité de combler le retard français » est un prétexte rêvé (par nos gouvernants) pour vendre l’école. Bill Gates (chef de Microsoft, et « self-made-man » le plus riche du monde), qui est politiquement très proche de Tony Blair a déjà passé des accords avec les travaillistes pour équiper les 32.000 écoles britanniques (sans doute en échange de soutiens financiers pendant la campagne électorale). Et le même type d’accord existerait avec les socialistes français.
En fait, depuis mars 1998, Microsoft propose en France un « label Microsoft » aux établissements d’enseignements supérieurs qui le désire. Les conditions d’obtention de ce label sont les suivants : « la formation sur les produits Microsoft doit être dispensée sur la base des supports de cours Microsoft disponibles » (à 350 frs HT par module et par élève), et « l’établissement doit répondre aux conditions de MICROSOFT CORPORATION, en matière de certification des instructeurs, d’installations et d’équipements des salles de cours ». En échange « Microsoft ne garantit pas que les supports de cours Microsoft sont aptes à répondre à des besoins ou des usages particuliers, ni qu’ils permettent d’atteindre des résultats déterminés » (cf. [2]). En clair, pour obtenir ce label, il faut se soumettre totalement aux conditions financières, techniques et pédagogiques de Microsoft. Pourtant, dans la folle course à l’emploi, ce genre de label risque d’être un passage obligé pour les établissements du type IUT ou école d’ingénieur, dont les étudiants sont destinés à servir les entreprises.
Plus concrètement, à quoi va ressembler un cours Microsoft ? Cela va consister à apprendre à utiliser des logiciels Microsoft de bureautique ou de navigation à Internet. Autant de choses aussi peu enrichissantes que peu utiles : quand les élèves sortiront de l’école, les outils qu’ils auront utilisés en classe seront périmés depuis longtemps, et il leur faudra apprendre en utiliser de nouveaux. Maîtriser l’outil informatique ne se résume pas à connaître les détails et les astuces d’utilisation de tel ou tel logiciel. En particulier, il est important d’avoir une attitude critique vis-à-vis des logiciels et du matériel, pour mieux les utiliser, et éventuellement les modifier, en fonction de ses besoins. Mais, l’enjeu pour Microsoft n’est pas d’apprendre aux élèves à se former des jugements sur les outils informatiques; au contraire, il s’agit de leur faire croire que les logiciels Microsoft sont merveilleux, et qu’en dehors d’eux, il n’y a rien.
Face à cela, les logiciels libres offrent une vraie alternative (cf. [3]) : les élèves pourront librement les copier pour les utiliser chez eux (la seule condition financière sera alors d’avoir un ordinateur), et les profs auront la possibilité de montrer ce qu’il y a derrière les petits boutons et les machins qui clignotent. Le fait que GNU-Linux soit une alternative crédible à leurs équivalents commerciaux a motivé en France la création de lobbies universitaires afin que l’éducation nationale utilise les logiciels libres pour s’équiper. Mais la partie est très loin d’être gagnée pour ces lobbies, Microsoft ayant une large avance auprès de la majeure partie des technocrates européens.

4. Incorporation du logiciel libre dans une logique commerciale

Les partisans du logiciel libre ne sont pas des révolutionnaires. Ce sont en général des programmeurs, qui n’ont pas envie de voir le monde du logiciel soumis à quelques grandes multinationales. Même si à l’heure actuelle, leur pratique est essentiellement non-commerciale, ils ne sont pas hostiles à la logique commerciale, surtout si celle-ci peut briser l’hégémonie des éditeurs de logiciels propriétaires. Le meilleur exemple de cet état d’esprit est l’enthousiasme qu’a sucité au sein de la communauté l’annonce de la compagnie Netscape de rendre publique les sources de son navigateur Web. Mais c’est pour résister à la concurrence de Microsoft qui à incorporé son navigateur à son système d’exploitation, que Netscape a décidé au printemps de faire suivre à son navigateur le même mode de développement que Linux. Netscape n’oeuvre pas pour le bien-être de l’humanité, mais pour son propre profit : grâce à la « mise en liberté » de son navigateur, cette compagnie espère que celui-ci va survivre (il était fortement menacé) et qu’elle va pouvoir faire des profits sur les ventes de livres à propos du navigateur, ou les ventes de CD de ce navigateur (même si un logiciel est gratuit sur internet, on préfère parfois acheter le CD, car c’est plus simple à installer), ou sur les ventes de ses autres logiciels (elle profitera de la publicité du navigateur).
Cette stratégie commerciale de Netscape a fortement agité la communauté du logiciel libre, car certains voudraient maintenant faire de la publicité envers les éditeurs de logiciels commerciaux afin de les inciter à passer sous la bannière du logiciel libre. Par exemple, ils voudraient renommer le terme anglais du logiciel libre, « freeware », qui est volontairement ambigüe, car « free » signifie à la fois libre et à la fois gratuit (ce qui évidemment peut effrayer les marchands). Le nouveau terme serait « open source » qui signifie que le texte des programmes est publique.

5. Conclusion :

Ce n’est pas demain le grand soir
.
La communauté du logiciel libre a mis en évidence quelques contradictions du capitalisme. En prenant des principes contraires à ceux des capitalistes, elle a été capable d’avoir une production d’une plus grande qualité technique. Mais la critique de ces contradictions restant très localisée, le capitalisme est déjà en train de s’adapter. Néanmoins, cette expérience est très intéressante, car elle montre que sur une production hautement technique, un comportement libertaire n’est pas utopique. Finalement, le logiciel libre ouvre sans doute des pistes pour résister à l’asservissement par les « Nouvelles Technologies ».

References :

[1] 
FSF. GNU General Public License (GPL).
[2] 
Roberto Di Cosmo. Piège dans le cyberespace.

[3] 
Bernard Lang. Contre la main mise sur la propriété intellectuelle, des logicels libres à la 
disposition de tous, Le monde diplomatique, janvier 1998.
[4] 
Eric S. Raymond. The Cathedral and the Bazaar.