Même sur une courte période, la concentration en CO2 augmente rapidement. Depuis la fin des années 50, 1957 pour être exact, des mesures systématiques de la quantité de CO2 dans l’atmosphère ont pris place en divers endroits du globe, le premier d’entre eux et encore aujourd’hui le plus célèbre étant Manau Loa, sur l’île d’Hawaï. Pourquoi diantre être allé se mettre là-bas, si ce n’est pour faire du surf ? Tout simplement pour être sûr de ne pas être perturbé par une grosse source d’émission de CO2 telle qu’une ville, une région fortement industrialisée, etc. Les observatoires qui sont venus s’ajouter à Manau Loa sont également situés sur des îles perdues au milieu de l’océan (la France possède ainsi une station de mesure sur l’île d’Amsterdam) ou sur des bateaux. Depuis le début de ces mesures, les relevés ont montré que la concentration en gaz carbonique dans l’air augmentait un peu chaque année, et récemment d’autres mesures ont permis de voir que la quantité d’oxygène présente dans l’air diminuait de manière remarquablement symétrique (rassurez-vous, ça concerne des millionièmes, il en restera bien assez !). Pour une molécule de CO2 apparaissant dans l’atmosphère, il disparaît une molécule d’O2, ce qui accrédite très fortement l’idée que le CO2 injecté provient d’une combustion.
———————————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier ges).
—————————
Une activité sur les gaz à effet de serre : élaboration d’une conférence destinée au grand public…
« L’espace et le temps continus sont une vision approximativeà grande échelle de la dynamique des quanta de gravité. » Carlo Rovelli. Par-delà le visible. 2014.
Carlo Rovelli et Nick Huggett. Peut-on tester la nature quantique de l’espace-temps ? Pour la science. 2024. Extrait
Notre connaissance du monde physique souffre d’une lacune importante : aucune de nos théories parmi les plus efficaces pour décrire nos observations et nos expériences n’inclut la nature quantique de la gravité. Toutefois, une grande majorité des physiciens s’accordent à penser que celle-ci est essentielle pour représenter correctement des situations extrêmes telles que l’Univers primordial et l’intérieur des trous noirs.
En attendant de résoudre le problème de la « gravité quantique », la gravité est décrite par une théorie classique, celle de la relativité générale d’Albert Einstein. Cette dernière a été éprouvée de nombreuses façons avec un succès spectaculaire. Elle a prédit des phénomènes, tous observés, tels que la déviation de la lumière, l’avance du périhélie de Mercure, les trous noirs et les ondes gravitationnelles. Elle stipule que la géométrie de l’espace-temps – la réunion de l’espace et du temps – est forgée par la gravité. Ainsi, lorsque nous parlons du comportement quantique de la gravité, nous parlons en réalité du comportement quantique de l’espace-temps.
Antoine Tilloy. Et si la gravité n’était pas quantique ? Pour la science. 2018. Extrait
DES THÉORIES INCOMPATIBLES
Ainsi, à son niveau le plus fondamental, l’Univers semble régi par deux mécaniques distinctes, deux ensembles de lois a priori incompatibles tant les notions et objets de ces théories sont différents. Dans leurs domaines d’application respectifs, ces deux théories sont d’une efficacité redoutable. Mais relativité générale et physique quantique ne semblent pas pouvoir être utilisées simultanément, en tout cas pas sans modification. Que se passe-t-il, par exemple, dans une situation où les effets dus à la physique quantique sont importants, mais où la force gravitationnelle domine ? La réponse simple est que l’on ne sait pas. Le problème n’est pas que l’on ne sait pas effectuer les calculs, mais que l’on n’a même pas de cadre théorique approprié.
Jean-Pierre Luminet. L’univers holographique (2) : La gravité quantique façon théorie des cordes. 2016. Extrait
Jusqu’à présent, la théorie de gravité quantique la plus étudiée est la théorie des cordes, même si d’autres approches comme la Loop Quantum Gravity ou la géométrie non-commutative offrent de prometteuses alternatives. L’idée de départ de la théorie des cordes est que les constituants fondamentaux de la matière (les quarks, les leptons et les bosons) ne sont pas des particules ponctuelles sans dimension, mais des objets longilignes et vibrants de dimension 1. Ces « cordes », de taille extrêmement petite, peuvent avoir deux formes : ouvertes aux extrémités libres, ou fermées en anneau. Leurs modes de vibration et d’enroulement sont quantifiés, et peuvent être associés à des particules de masse et de spin donnés.
Les modes vibratoires de cordes ouvertes et fermées, montrés ici en deux dimensions, correspondent aux diverses particules élémentaires.
————————————-
Selon Carlo Rovelli : « De quoi le monde est-il fait ? D’un seul ingrédient : de champs quantiques covariants. »
———————————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier gravitation quantique).
—————————
La relativité générale et la mécanique quantique sont les deux théories physiques les plus efficaces. Pourtant elles sont incompatibles, en particulier en ce qui concerne la représentation de l’espace-temps.
On trouvera ici une petite collection documentaire (très partielle), faisant l’économie des modélisations mathématiques (difficilement abordable…), à propos des multiples travaux sur la « gravitation quantique ».
Etienne Klein. La physique quantique et ses interprétations (Extraits)
Un siècle après la conférence de Max Planck [concernant le corps noir], les problèmes de fond posés par Bohr, Heisenberg, Einstein, Schrödinger ou Pauli restent d’actualité, mais on dispose pour les traiter de davantage de résultats et d’arguments. Plusieurs systèmes épistémologiques essaient d’intégrer ces nouvelles donnes. On pourrait évoquer la thèse du réel voilé de Bernard d’Espagnat, le solipsisme convivial de Hervé Zwirn, le réalisme physique de Michel Paty ; et, de façon plus diffuse, le réalisme ouvert, l’antiréalisme, l’empirisme, l’opérationnalisme, le phénoménalisme ; enfin, l’idéalisme, lui-même divisé en idéalisme radical et idéalisme modéré, les deux pouvant être plus ou moins kantiens… Ce pluralisme peut sembler encombrant, mais il a au moins l’avantage d’être plus fécond que les glaciations doctrinales ou les crispations idéologiques. Il faut simplement souhaiter que les partisans d’un réalisme fort n’érigent pas en dogme absolu le principe selon lequel le réel serait totalement intelligible et, pour faire bonne mesure, que les positivistes radicaux ne condamnent pas l’idée que cela a un sens de se préoccuper du réel, sous prétexte que cette idée serait bassement métaphysique.
———————————————————-
L’interprétation « orthodoxe », l’école de Copenhague (Bohr, Heisenberg, Born…). L’état d’un système quantique (particules, atomes…) est décrit par une fonction d’onde (ou vecteur d’état dans un espace mathématique de Hilbert approprié). L’équation de Schrödinger, qui permet d’établir la structure des fonctions d’onde, est parfaitement déterministe et donne une description complète du système. En mécanique classique les grandeurs physiques mesurables sont déterminées : durée, énergie, position, vitesse… Mais, en mécanique quantique ces grandeurs classiques ne sont pas déterminées. Au moment d’une « mesure », disons d’une interaction avec le système quantique, il y a « réduction » de la fonction d’onde. Alors les grandeurs classiques évoquées plus haut obtiennent certaines valeurs dont on ne peut prévoir que la probabilité.
Le réalisme d’Einstein. La physique doit traiter de l’intimité du réel, indépendamment de nous. C’est la position d’Einstein. Le hasard et les probabilités ne peuvent être érigés en principe. La mécanique quantique est donc selon lui incomplète, inachevée. Mais Einstein reconnait tout de même : “On doit admettre que ces nouvelles conceptions théoriques résultent, non pas d’un accès de fantaisie, mais de la force contraignante des faits d’expérience.” (Einstein. Fondements de la physique théorique. 1940).
———————————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier epistemologie quantique).
—————————
Petites collections documentaires pour cultiver la réflexion épistémologique à propos de la mécanique quantique…
Genius est une série télévisée de 2017 développée par Noah Pink et Ken Biller. La saison 1 est basée sur le roman Einstein, la vie d’un génie par Walter Isaacson publié en 2007, produite par Brian Grazer et Ron Howard, et diffusée sur National Geographic Channel.
ARNAUD SPIRE. Energie, sens et contresens. Dossier Sciences et philosophie. Extrait.PAS DE SYMÉTRIE ENTRE LE PASSÉ ET LE FUTUR
Ilya Prigogine a introduit dans La Nouvelle Alliance, métamorphose de la science, l’idée que le temps historique n’est pas réversible et que la nature a donc une histoire. Le physicien français contemporain Michel Paty est donc forcé d’admettre la métaphore prigoginienne de la flèche dès lors que l’on parle du temps en thermodynamique : « Le cours du temps du passé vers le futur avait été postulé au départ, par exemple quand Aristote définissait le temps comme le nombre du mouvement en rapport à l’avant et à l’après. » Mais l’uniformité du temps et la parfaite symétrie entre le passé et le futur supposées par la mécanique classique impliquaient la RÉVERSIBILITÉ des lois du mouvement : cet état de chose demeure d’ailleurs encore dans le cadre de la relativité générale. Mais elles sont généralement attribuées à l’entremise de la thermodynamique (rapport entre chaleur et travail) et de l’IRRÉVERSIBILITÉ qui en résulte. Tous les états et processus naturels sont irréversibles parce qu’inscrits dans un temps non circulaire. L’entropie qui mesure le degré, le désordre d’un système en physique et l’évolution en biologie sont d’ores et déjà des expressions scientifiquement avérées de l’irréversibilité.
Étienne Klein. De quoi l’énergie est-elle le nom ? 2017. Extraits. Les bons mots de l’énergie
De fait, l’énergie n’a pu devenir un concept central de la physique qu’un siècle et demi plus tard, à partir du moment où il fut établi qu’elle obéit à une implacable loi de conservation. Qu’est-ce à dire ? Lorsque deux systèmes interagissent, ils échangent de l’énergie : au cours de l’interaction, la somme des variations d’énergie dans le premier système se trouve toujours être l’opposée de la somme des variations d’énergie dans le second, de sorte que l’énergie globale est conservée. Mais nos façons de dire l’énergie, notamment lorsque nous débattons de la « transition énergétique », ne rendent guère justice aux découvertes des physiciens. Par exemple, dès lors que l’énergie d’un système isolé demeure constante, il devient trompeur de parler de « production d’énergie », car cette expression laisse entendre que l’énergie pourrait émerger du néant, surgir de rien. En réalité, il ne s’agit jamais que d’un changement de la forme que prend l’énergie, ou d’un transfert d’énergie d’un système à un autre, jamais d’une création ex nihilo. Un exemple ? « Produire » de l’électricité dans une centrale nucléaire signifie transformer l’énergie libérée par les réactions de fission de l’uranium 235 en énergie électrique d’une part, en chaleur d’autre part. L’énergie présente à la fin du processus est exactement la même qu’au début. Contrairement à ce qu’on proclame, on n’en a donc pas produit du tout.
Pour mieux comprendre comment les choses se passent, il faut faire appel à un autre concept, plus subtil, celui d’entropie. Il s’agit d’une grandeur qui caractérise la capacité d’un système physique à subir des transformations spontanées : plus grande est la valeur de l’entropie, plus faible est la capacité du système à se transformer. En évoluant, un système augmente son entropie, c’est-à-dire affaiblit sa tendance à évoluer : plus il a changé, moins il a tendance à continuer à changer, jusqu’à ce que, son entropie étant devenue maximale, il demeure dans un état d’équilibre. C’est là tout le sens du second principe de la thermodynamique.
L’entropie mesure en fait la « qualité » de l’énergie disponible au sein du système. Au cours de ses transformations, l’énergie devient de moins en moins utilisable. Une énergie de bonne qualité est une énergie ordonnée, c’est-à-dire d’entropie faible. C’est par exemple celle de la chute d’eau qui, grâce à son mouvement d’ensemble descendant, est facilement récupérable (on peut l’utiliser pour faire tourner une turbine). Au bas de la chute, les molécules d’eau ont perdu l’ordonnancement vertical, dû à la pesanteur, qu’elles avaient lors de la chute. Leur énergie s’est désordonnée et a donc perdu de sa qualité. En fait, elle s’est en partie transformée en chaleur, notion ici ambiguë car perd de son sens à l’échelle microscopique : elle n’est que la partie désordonnée de l’énergie mécanique totale.
De la même façon, on ne devrait pas parler de « consommation d’énergie ». Car consommer la totalité d’un kilojoule d’énergie, ce n’est nullement le faire disparaître : c’est prendre un kilojoule d’énergie sous une forme de faible entropie (par exemple de l’électricité) et le convertir en une quantité exactement égale d’énergie sous une autre forme, possédant en général une entropie beaucoup plus élevée (de l’air chaud ou de l’eau chaude par exemple). En bref, consommer de l’énergie, ce n’est pas consommer de l’énergie, c’est créer de l’entropie. On ne devrait pas non plus dire qu’il existe des énergies à proprement parler « renouvelables », car ce n’est jamais l’énergie elle-même qui se renouvelle, seulement le processus physique dont on l’extrait (par exemple le vent ou l’émission de lumière par le Soleil)…
Suis-je en train de « pinailler » ? Sans doute, mais dans le but d’illustrer le fait que si l’on dit mal les choses, on risque de mal les penser. Or, la nature ne se laissera jamais duper par nos jeux de langage. […]
——————————————————–
Il y a urgence à travailler les concepts et le langage approprié ! Comme l’indique Etienne Klein, nous ne consommons pas de l’énergie ; nous la transformons, et ce faisant nous créons de l’entropie, c’est-à-dire du désordre. Il faut encore préciser que lorsque nous créons des structures (de l’organisation, de « l’ordre »), nous provoquons une désorganisation (un « désordre ») encore plus grand dans l’environnement… C’est le second principe de la thermodynamique, cette branche fondamentale des sciences physiques qu’il faudrait introduire dans l’enseignement, dès le collège et le lycée…
Inspection générale de l’éducation, du sport et de la recherche . Rapport à monsieur le ministre de l’Éducation nationale et de la Jeunesse, madame la ministre de l’Enseignement supérieur et de la Recherche. Avril 2023.
Extrait
Les trois dimensions de la formation à la démarche scientifique
Pour préciser ses analyses de la formation à la démarche scientifique dans les différents enseignements, la mission s’appuie sur une distinction introduite par l’OCDE dans le cadre de l’enquête internationale PISA 201512 entre trois catégories de connaissances :
– les connaissances de contenuconcernent les notions, les théories, les faits relevant de disciplines scientifiques particulières ;
– les connaissances procédurales sont « les connaissances relatives aux concepts et procédures essentiels à la démarche scientifique qui sous-tend la collecte, l’analyse et l’interprétation de données scientifiques ». Elles concernent les aspects méthodologiques des démarches scientifiques ;
– les connaissances épistémiques concernent la compréhension de la nature et de l’origine des connaissances scientifiques.
—————————————————
—————————————————
Physique-chimie, enseignement de spécialité, classe terminale, voie générale.
Extrait
Dès qu’elle est possible, une mise en perspective des savoirs avec l’histoire des sciences et l’actualité scientifique est fortement recommandée. En particulier, les limites des modèles étudiés en classe peuvent être abordées, ce qui peut offrir l’occasion d’évoquer des théories plus récentes, comme la physique quantique ou la relativité, que les élèves pourront être amenés à approfondir dans le cadre de leurs études supérieures.
Étienne Klein : « L’enseignement, c’est du corps à corps » . Isabelle Dautresme. 2015. Extrait.
L’avenir appartient aux pédagogues. S’ils renonçaient, les publicitaires et les gourous seraient les seuls à tenir le manche de nos esprits.
Êtes-vous optimiste sur l’avenir du système éducatif ?
Je suis ardemment combatif et ne me pose donc pas cette question. Au XXe siècle, les physiciens ont fait des découvertes déroutantes, presque fabuleuses, que j’essaie de transmettre au plus grand nombre de personnes possible, et d’une façon qui soit intellectuellement honnête. Je sais bien qu’on parle aujourd’hui d’une « désaffection pour les sciences ». Mais, rien ne prouve que la baisse des vocations scientifiques soit le résultat d’un désamour profond des jeunes vis-à-vis de la science. Il est après tout possible qu’ils continuent de la juger belle et admirable tout en considérant qu’elle est devenue trop difficile. On peut aussi concevoir que la science ne les « touche » plus : non pas au sens où elle leur serait indifférente, mais parce que, noyée, enfouie sous le flot du reste, elle ne parviendrait même plus à entrer en contact avec eux, à les atteindre. Je persiste à penser que l’avenir appartient aux pédagogues. S’ils renonçaient, les publicitaires et les gourous seraient les seuls à tenir le manche de nos esprits.
Comment, alors, redonner goût aux sciences ?
Dans un texte célèbre, « Avenir de la science », Nietzsche prophétisait que nous délaisserions la science à mesure qu’elle nous donnerait moins de plaisir. C’était bien vu. Donner le goût des sciences passe d’abord par donner du goût aux sciences, les ré-érotiser. Pour atteindre ce but, certains plaident pour plus d’histoire des sciences dans les cursus. L’intention est louable, mais difficile à mettre en œuvre. Je suggère autre chose : qu’une fois l’an, depuis les classes primaires jusqu’au lycée (mais aussi dans les grandes écoles commerciales ou administratives qui forment nos élites !), l’un des professeurs raconte aux élèves une « histoire de science » de son choix, par exemple celle d’une découverte célèbre qu’il aura pris le temps d’étudier en détail : comment a-t-on compris que la terre est ronde ? Comment a-t-on obtenu la preuve de l’existence des atomes ? Le professeur devra expliquer comment les arguments se sont combattus, ce qui a fait que certains ont fini par convaincre… Cette démarche montrerait par des exemples concrets comment les démarches des scientifiques se construisent et produisent parfois de véritables chocs pour la pensée… Or, pour la pensée, qu’y a-t-il de plus pédagogique qu’un choc ?
———————————————-
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier enseigner).
—————————
Un rapport de l’inspection générale intitulé « La sensibilisation et la formation à la démarche scientifique de l’école élémentaire au doctorat » fait un état des lieux de l’enseignement scientifique en France en 2023…
On y fait en particulier référence à la nécessité d’aborder l’épistémologie et « la compréhension de la nature et de l’origine des connaissances scientifiques. »
On pourra consulter ici des extraits de ce rapport, des éléments d’épistémologie et divers documents d’analyse de l’enseignement des sciences « dures »…
On pourra consulter également les travaux proposés à la page :
De nombreuses personnes orthodoxes parlent comme si c’était le travail des sceptiques de réfuter les dogmes plutôt qu’à ceux qui les soutiennent de les prouver. Ceci est bien évidemment une erreur. Si je suggérais qu’entre la Terre et Mars se trouve une théière de porcelaine en orbite elliptique autour du Soleil, personne ne serait capable de prouver le contraire pour peu que j’aie pris la précaution de préciser que la théière est trop petite pour être détectée par nos plus puissants télescopes. Mais si j’affirmais que, comme ma proposition ne peut être réfutée, il n’est pas tolérable pour la raison humaine d’en douter, on me considérerait aussitôt comme un illuminé. Cependant, si l’existence de cette théière était décrite dans des livres anciens, enseignée comme une vérité sacrée tous les dimanches et inculquée aux enfants à l’école, alors toute hésitation à croire en son existence deviendrait un signe d’excentricité et vaudrait au sceptique les soins d’un psychiatre à une époque éclairée, ou de l’Inquisiteur en des temps plus anciens.
———————————————-
Karl Popper. La société ouverte et ses ennemis. 1945.
« C’est une illusion de croire à la certitude scientifique et à l’autorité absolue de la science ; la science est faillible parce qu’elle est humaine. Mais cela ne donne pas raison au scepticisme ni au relativisme. Nous pouvons nous tromper, certes ; il n’en résulte pas que le choix que nous faisons entre plusieurs théories est arbitraire, que nous ne pouvons apprendre et nous rapprocher de la vérité. »
Karl Popper. Conjectures and Refutations: The Growth of Scientific Knowledge. 1963.
« Une théorie qui n’est réfutable par aucun évènement qui se puisse concevoir est dépourvue de caractère scientifique. Pour les théories, l’irréfutabilité n’est pas (comme on l’imagine souvent) vertu mais défaut. »
La création du tout premier enseignement de zététique à l’université a fait suite à l’enquête « Psychokinèse vs. Relativité » menée par Henri Broch en 1982-83 au niveau des DEUG scientifiques de l’université Nice Sophia Antipolis (Alpes-Maritimes) et dont les résultats étaient particulièrement surprenants. Il s’agissait, pour les étudiants, de se prononcer sur le degré de validité de deux phénomènes, « Torsion de cuillères par le pouvoir de l’esprit » et « Dilatation relativiste du temps ».Le premier est « prouvé scientifiquement » pour 68 % d’entre eux contre seulement 18 % pour la relativité qui, elle, relève, pour 52 % des réponses, de « la pure spéculation théorique ». Un enseignement spécifique sur la question scientifique était devenu plus que nécessaire !
———————————————-
Isaac Asimov
« There is a cult of ignorance in the United States, and there always has been. The strain of anti-intellectualism has been a constant thread winding its way through our political and cultural life, nurtured by the false notion that democracy means that “my ignorance is just as good as your knowledge.”
« Il existe un culte de l’ignorance aux États-Unis, et il y en a toujours eu. Le courant anti-intellectualiste est un fil conducteur constant de notre vie politique et culturelle, alimenté par l’idée fausse selon laquelle la démocratie signifie que « mon ignorance vaut votre savoir ».
———————————————-
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier alter-pseudo-anti).
—————————
Une petite collection étrange glanée sur le net… De quoi cultiver l’esprit critique !!!
Extrait […] Si les pérovskites produisent des rendements si élevés, c’est grâce à des qualités insoupçonnées avant 2012. La bonne séparation des charges électriques et leur mobilité sont en effet la bonne surprise de ce matériau – une surprise d’autant plus grande qu’ « au moment où les premiers résultats sont tombés, les propriétés électroniques de ces matériaux étaient encore mal connues, c’est d’ailleurs toujours le cas aujourd’hui », explique Emmanuelle Deleporte, physicienne au Laboratoire Aimé-Cotton qui étudie depuis dix ans ces composés. À la bonne mobilité des charges s’ajoutent une bonne absorption de la lumière du soleil, la possibilité de les manipuler sous forme d’encre pour de grands revêtements et un coût de fabrication peu élevé…
Roche de pérovskite dans le massif de l’Oural, en Russie. G. COOK/VISUAL UNLIMITED/CORBIS
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier perovskite).
—————————
Un travail d’exploration documentaire à propos du photovoltaïque et des pérovskite. Les documents proposés peuvent être parfois complexes (au niveau Lycée).
On pourra ensuite confronter les explorations effectuées aux propositions de quelques IA, s’interroger sur leurs intérêts quant à la compréhension et sur le fait d’avoir préalablement exploré les contenus…
En dépit de sa riche histoire, la chimie reste encore marquée aujourd’hui par son image héritée de l’alchimie, c’est-à-dire la magie, le mystère, l’occulte. À cette première vision se greffent, du fait de l’industrialisation rapide, les notions de danger (notamment à cause des explosifs) et de pollution, concepts qui prennent de plus en plus d’importance aux XIXème et XXème siècles en accompagnant la forte croissance de l’industrie chimique. L’amalgame des bienfaits apportées par cette dernière avec les dangers et les dégâts qu’elle cause crée un malaise encore très présent lorsqu’on parle de chimie, qui se manifeste dans l’ambivalence de certains produits (les pesticides typiquement) voire de certains pans entiers de l’industrie (par exemple la métallurgie de l’aluminium et les boues rouges qu’elle cause). L’histoire du plastique, emblématique du succès de la chimie du XXème siècle et aujourd’hui responsable de graves problèmes de recyclage et de durabilité, renforce encore cet aspect contradictoire de l’industrie chimique.
Procédés chimiques industriels : quels écueils ? Les principaux problèmes que peuvent poser les procédés chimiques industriels sont entre autres : l’utilisation de grandes quantités de solvants organiques, la génération de produits secondaires qui constituent souvent des déchets à traiter, l’utilisation importante d’énergie (pour le chauffage des réacteurs par exemple), ou encore les faibles rendements dus à de nombreuses étapes nécessaires pour accéder au produit final. Les chimistes doivent donc prendre en compte de multiples facteurs lorsqu’ils mettent au point des réactions chimiques, à l’échelle du laboratoire comme à l’échelle industrielle.
Des pistes de solutions. C’est ainsi que se développe par exemple la « chimie dans l’eau » pour éviter l’utilisation massive de solvants polluants, les réactions chimiques associant deux phases, qu’elles soient liquides (comme les liquides ioniques ou l’eau), solides ou gazeuses, pour faciliter les purifications, ou encore de la catalyse (homogène, hétérogène ou enzymatique). Parmi les réactions très prisées par les chimistes, citons la métathèse des oléfines, les réactions de couplages catalysés par le palladium ou encore les réactions de la « chimie click », qui permettent toutes, en une étape et avec peu d’énergie, d’obtenir une grande variété de motifs moléculaires, en générant très peu, voire aucun produit secondaire. À l’heure actuelle, les recherches en synthèse chimique trouvent leurs applications majoritairement à l’échelle du laboratoire. Alors que les matériaux venant du pétrole ont été très optimisés pour des productions en usine, il faudra encore du temps pour un remplacement de grande envergure par les matériaux biosourcés, tout en garantissant une rentabilité économique…
Le concept de chimie verte est né dans les années 1990 avec pour but de réduire l’impact néfaste du génie chimique sur l’environnement en traitant le problème à sa source. Il ne s’agit plus de chercher à retraiter les déchets pour limiter leur impact, mais bien de réduire au maximum la production de déchets au cours des différentes réactions menant au produit désiré. Pour ce faire, les réactions chimiques sont petit à petit retravaillées en prenant en compte les douze principes fondateurs fondateurs décrits par les chimistes P. Anastas et J. Warner. Ces préceptes encouragent à réduire la production de déchets, à limiter la quantité d’énergie nécessaire pour réaliser les réactions, à utiliser des catalyseurs (molécules ajoutées aux mélanges qui permettent d’accélérer considérablement les réactions chimiques et sont réutilisables presque indéfiniment) et des matières premières renouvelables, à supprimer au maximum les étapes de synthèse superflues et à économiser les atomes : les réactifs doivent être choisis de manière à ce que le maximum de leurs atomes soient retrouvés dans le produit de réaction.
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier banque-reactions).
—————————
Pour aborder les problèmes en synthèses organiques (du laboratoire à l’industrie), avec l’exemple du benzoate de méthyle.
Michel-Eugène Chevreul. Considérations générales sur l’analyse. 1824.
[…] la distinction des composés qui constituent les êtres organisés en organiques et inorganiques, ne peut être considérée comme absolue, par la raison qu’il serait contraire à l’esprit de la chimie de fonder une classification sur l’impossibilité où l’on a été jusqu’à ce moment de former de toutes pièces un composé organique absolument identique à un composé qui fait partie d’un être organisé, et dans ce que nous savons aujourd’hui, il y a plus de raisons d’espérer qu’on parviendra à opérer cette formation qu’il n’y en a de croire le contraire. En effet, déjà M. Proust a observé qu’il se produit, pendant la dissolution des fontes de fer noires dans l’acide sulfurique faible, une substance huileuse dont l’analogie avec les composés organiques est évidente ; M. Dolbereiner en faisant passer de l’eau en vapeur sur du carbone incandescent et ensuite M. Bérard en chauffant au rouge cerise un mélange d’acide carbonique, d’hydrogène et d’hydrogène percarburé ont obtenu des substances qui ont quelques ressemblances avec les corps gras d’origine organique.
Doctrine de l’école de Montpellier (développée au XVIIIe par Bordeu et Barthez) d’après laquelle il existe dans tout individu un principe vital gouvernant les phénomènes de la vie distinct de l’âme et de la matière; p. ext. (p. oppos. à mécanisme), doctrine selon laquelle les phénomènes de la vie sont irréductibles aux phénomènes physico-chimiques et manifestent une force vitale irréductible aux forces de la matière inerte.
1. Une brève histoire du mécanisme et du vitalisme Extraits
[…] Le vitalisme domine à la fin du XVIIIe siècle, car globalement les naturalistes ne peuvent se satisfaire du mécanisme cartésien. Le vivant ne peut s’expliquer avec les forces physico-chimiques connues alors. Augustin Cournot (1801-1877), mathématicien et philosophe, écrit dans Matérialisme, vitalisme, rationalisme. Étude sur l’emploi des données de la science en philosophie (1875) : « Tous les progrès de l’observation scientifique confirment tellement l’idée d’une distinction radicale entre les lois du monde physique et celles des phénomènes de la vie ». Il y a donc l’idée d’un être vivant dans un milieu soumis aux lois physiques sans y être soumis lui-même. « Si la force vitale revêt une telle importance pour le début du siècle dernier, c’est qu’elle joue le rôle que la physique attribuera plus tard à deux concept nouveaux. Les êtres vivants apparaissent aujourd’hui comme le siège d’un triple flux de matière, d’énergie et d’information. A ses débuts, la biologie est en mesure de reconnaître un flux de matière, mais à la place des deux autres, il lui faut recourir à une force particulière », explique François Jacob dans La logique du vivant (cité par Paul Mazliak).
Mais toutes ces forces restent assez mystérieuses, et le vitalisme a ensuite décliné au XIXe siècle, à travers des découvertes qui vont réduire l’espace entre vivant et non vivant :
La synthèse de l’urée, molécule organique, en 1828 par Friedrich Wöhler montre qu’on peut faire de l’organique avec de l’inorganique au laboratoire.
Les travaux de Pasteur qui démontrent qu’il n’y a pas de génération spontanée, donc pas de principe vital susceptible de faire apparaître la Vie à partir du non vivant.
Toutes les découvertes de la biologie moléculaire, avec l’ADN, sa structure, son expression, les protéines et leurs fonctions, qui vont ramener les activités du vivant à des supports moléculaires et à des réactions chimiques.
[…] La science montre une vision mécaniste de l’être vivant. Ce n’est plus un automate comme chez Descartes, avec des ressorts et des soufflets. C’est aujourd’hui une mécanique moléculaire, mais le principe est au fond le même : la cellule est le siège, et son activité le résultat, de réactions chimiques en chaînes qui s’entrecroisent, grâce à des protéines, les enzymes, fabriquées sous contrôle d’une autre molécule : l’ADN. Nous le comprenons, bien que la complexité de la relation gène/protéine nous apparaisse de plus en plus grande. Cette cellule produit de l’énergie, prend, libère, reçoit ou émet des informations, se divise… Comment passe-t-on d’un niveau à l’autre, d’une multitude de réactions chimiques à une cellule vivante, c’est ce qu’il est difficile de se représenter. […]
Le vitalisme est un fondement philosophique et métaphysique qui considère l’existence d’une force vitale, une sorte « d’intelligence biologique » que possède le corps. Ce principe vital serait le siège du total équilibre organique : notre « capital santé ». Cette énergie immatérielle se manifeste par notre capacité à nous réguler. En effet, ce serait elle qui gère la « matière » et toutes les fonctions physiologiques du corps pour permettre à celui-ci de se rééquilibrer spontanément. L’énergie vitale relierait toutes les parties de notre corps, et si la circulation de cette énergie venait à être perturbée, des déséquilibres apparaîtraient. Le vitalisme est un pilier de la naturopathie car cette dernière respecte les principes de l’énergie vitale unique et intrinsèque à chacun.
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier mineral-organique).
—————————
Un petite collection documentaire sur l’émergence de la chimie organique au XIXe siècle et son contexte doctrinaire en questionnement et contestation, le vitalisme…
On remarquera que le vitalisme a connu un renouveau en philosophie, notamment avec Bergson et Canguillem. On le rencontre bien sûr en abondance sur le web, en accompagnement des propositions de « vie saine et naturelle »(voir dernier texte ci-dessus)…