Extrait […] Si les pérovskites produisent des rendements si élevés, c’est grâce à des qualités insoupçonnées avant 2012. La bonne séparation des charges électriques et leur mobilité sont en effet la bonne surprise de ce matériau – une surprise d’autant plus grande qu’ « au moment où les premiers résultats sont tombés, les propriétés électroniques de ces matériaux étaient encore mal connues, c’est d’ailleurs toujours le cas aujourd’hui », explique Emmanuelle Deleporte, physicienne au Laboratoire Aimé-Cotton qui étudie depuis dix ans ces composés. À la bonne mobilité des charges s’ajoutent une bonne absorption de la lumière du soleil, la possibilité de les manipuler sous forme d’encre pour de grands revêtements et un coût de fabrication peu élevé…
Roche de pérovskite dans le massif de l’Oural, en Russie. G. COOK/VISUAL UNLIMITED/CORBIS
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier perovskite).
—————————
Un travail d’exploration documentaire à propos du photovoltaïque et des pérovskite. Les documents proposés peuvent être parfois complexes (au niveau Lycée).
On pourra ensuite confronter les explorations effectuées aux propositions de quelques IA, s’interroger sur leurs intérêts quant à la compréhension et sur le fait d’avoir préalablement exploré les contenus…
En dépit de sa riche histoire, la chimie reste encore marquée aujourd’hui par son image héritée de l’alchimie, c’est-à-dire la magie, le mystère, l’occulte. À cette première vision se greffent, du fait de l’industrialisation rapide, les notions de danger (notamment à cause des explosifs) et de pollution, concepts qui prennent de plus en plus d’importance aux XIXème et XXème siècles en accompagnant la forte croissance de l’industrie chimique. L’amalgame des bienfaits apportées par cette dernière avec les dangers et les dégâts qu’elle cause crée un malaise encore très présent lorsqu’on parle de chimie, qui se manifeste dans l’ambivalence de certains produits (les pesticides typiquement) voire de certains pans entiers de l’industrie (par exemple la métallurgie de l’aluminium et les boues rouges qu’elle cause). L’histoire du plastique, emblématique du succès de la chimie du XXème siècle et aujourd’hui responsable de graves problèmes de recyclage et de durabilité, renforce encore cet aspect contradictoire de l’industrie chimique.
Procédés chimiques industriels : quels écueils ? Les principaux problèmes que peuvent poser les procédés chimiques industriels sont entre autres : l’utilisation de grandes quantités de solvants organiques, la génération de produits secondaires qui constituent souvent des déchets à traiter, l’utilisation importante d’énergie (pour le chauffage des réacteurs par exemple), ou encore les faibles rendements dus à de nombreuses étapes nécessaires pour accéder au produit final. Les chimistes doivent donc prendre en compte de multiples facteurs lorsqu’ils mettent au point des réactions chimiques, à l’échelle du laboratoire comme à l’échelle industrielle.
Des pistes de solutions. C’est ainsi que se développe par exemple la « chimie dans l’eau » pour éviter l’utilisation massive de solvants polluants, les réactions chimiques associant deux phases, qu’elles soient liquides (comme les liquides ioniques ou l’eau), solides ou gazeuses, pour faciliter les purifications, ou encore de la catalyse (homogène, hétérogène ou enzymatique). Parmi les réactions très prisées par les chimistes, citons la métathèse des oléfines, les réactions de couplages catalysés par le palladium ou encore les réactions de la « chimie click », qui permettent toutes, en une étape et avec peu d’énergie, d’obtenir une grande variété de motifs moléculaires, en générant très peu, voire aucun produit secondaire. À l’heure actuelle, les recherches en synthèse chimique trouvent leurs applications majoritairement à l’échelle du laboratoire. Alors que les matériaux venant du pétrole ont été très optimisés pour des productions en usine, il faudra encore du temps pour un remplacement de grande envergure par les matériaux biosourcés, tout en garantissant une rentabilité économique…
Le concept de chimie verte est né dans les années 1990 avec pour but de réduire l’impact néfaste du génie chimique sur l’environnement en traitant le problème à sa source. Il ne s’agit plus de chercher à retraiter les déchets pour limiter leur impact, mais bien de réduire au maximum la production de déchets au cours des différentes réactions menant au produit désiré. Pour ce faire, les réactions chimiques sont petit à petit retravaillées en prenant en compte les douze principes fondateurs fondateurs décrits par les chimistes P. Anastas et J. Warner. Ces préceptes encouragent à réduire la production de déchets, à limiter la quantité d’énergie nécessaire pour réaliser les réactions, à utiliser des catalyseurs (molécules ajoutées aux mélanges qui permettent d’accélérer considérablement les réactions chimiques et sont réutilisables presque indéfiniment) et des matières premières renouvelables, à supprimer au maximum les étapes de synthèse superflues et à économiser les atomes : les réactifs doivent être choisis de manière à ce que le maximum de leurs atomes soient retrouvés dans le produit de réaction.
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier banque-reactions).
—————————
Pour aborder les problèmes en synthèses organiques (du laboratoire à l’industrie), avec l’exemple du benzoate de méthyle.
Michel-Eugène Chevreul. Considérations générales sur l’analyse. 1824.
[…] la distinction des composés qui constituent les êtres organisés en organiques et inorganiques, ne peut être considérée comme absolue, par la raison qu’il serait contraire à l’esprit de la chimie de fonder une classification sur l’impossibilité où l’on a été jusqu’à ce moment de former de toutes pièces un composé organique absolument identique à un composé qui fait partie d’un être organisé, et dans ce que nous savons aujourd’hui, il y a plus de raisons d’espérer qu’on parviendra à opérer cette formation qu’il n’y en a de croire le contraire. En effet, déjà M. Proust a observé qu’il se produit, pendant la dissolution des fontes de fer noires dans l’acide sulfurique faible, une substance huileuse dont l’analogie avec les composés organiques est évidente ; M. Dolbereiner en faisant passer de l’eau en vapeur sur du carbone incandescent et ensuite M. Bérard en chauffant au rouge cerise un mélange d’acide carbonique, d’hydrogène et d’hydrogène percarburé ont obtenu des substances qui ont quelques ressemblances avec les corps gras d’origine organique.
Doctrine de l’école de Montpellier (développée au XVIIIe par Bordeu et Barthez) d’après laquelle il existe dans tout individu un principe vital gouvernant les phénomènes de la vie distinct de l’âme et de la matière; p. ext. (p. oppos. à mécanisme), doctrine selon laquelle les phénomènes de la vie sont irréductibles aux phénomènes physico-chimiques et manifestent une force vitale irréductible aux forces de la matière inerte.
1. Une brève histoire du mécanisme et du vitalisme Extraits
[…] Le vitalisme domine à la fin du XVIIIe siècle, car globalement les naturalistes ne peuvent se satisfaire du mécanisme cartésien. Le vivant ne peut s’expliquer avec les forces physico-chimiques connues alors. Augustin Cournot (1801-1877), mathématicien et philosophe, écrit dans Matérialisme, vitalisme, rationalisme. Étude sur l’emploi des données de la science en philosophie (1875) : « Tous les progrès de l’observation scientifique confirment tellement l’idée d’une distinction radicale entre les lois du monde physique et celles des phénomènes de la vie ». Il y a donc l’idée d’un être vivant dans un milieu soumis aux lois physiques sans y être soumis lui-même. « Si la force vitale revêt une telle importance pour le début du siècle dernier, c’est qu’elle joue le rôle que la physique attribuera plus tard à deux concept nouveaux. Les êtres vivants apparaissent aujourd’hui comme le siège d’un triple flux de matière, d’énergie et d’information. A ses débuts, la biologie est en mesure de reconnaître un flux de matière, mais à la place des deux autres, il lui faut recourir à une force particulière », explique François Jacob dans La logique du vivant (cité par Paul Mazliak).
Mais toutes ces forces restent assez mystérieuses, et le vitalisme a ensuite décliné au XIXe siècle, à travers des découvertes qui vont réduire l’espace entre vivant et non vivant :
La synthèse de l’urée, molécule organique, en 1828 par Friedrich Wöhler montre qu’on peut faire de l’organique avec de l’inorganique au laboratoire.
Les travaux de Pasteur qui démontrent qu’il n’y a pas de génération spontanée, donc pas de principe vital susceptible de faire apparaître la Vie à partir du non vivant.
Toutes les découvertes de la biologie moléculaire, avec l’ADN, sa structure, son expression, les protéines et leurs fonctions, qui vont ramener les activités du vivant à des supports moléculaires et à des réactions chimiques.
[…] La science montre une vision mécaniste de l’être vivant. Ce n’est plus un automate comme chez Descartes, avec des ressorts et des soufflets. C’est aujourd’hui une mécanique moléculaire, mais le principe est au fond le même : la cellule est le siège, et son activité le résultat, de réactions chimiques en chaînes qui s’entrecroisent, grâce à des protéines, les enzymes, fabriquées sous contrôle d’une autre molécule : l’ADN. Nous le comprenons, bien que la complexité de la relation gène/protéine nous apparaisse de plus en plus grande. Cette cellule produit de l’énergie, prend, libère, reçoit ou émet des informations, se divise… Comment passe-t-on d’un niveau à l’autre, d’une multitude de réactions chimiques à une cellule vivante, c’est ce qu’il est difficile de se représenter. […]
Le vitalisme est un fondement philosophique et métaphysique qui considère l’existence d’une force vitale, une sorte « d’intelligence biologique » que possède le corps. Ce principe vital serait le siège du total équilibre organique : notre « capital santé ». Cette énergie immatérielle se manifeste par notre capacité à nous réguler. En effet, ce serait elle qui gère la « matière » et toutes les fonctions physiologiques du corps pour permettre à celui-ci de se rééquilibrer spontanément. L’énergie vitale relierait toutes les parties de notre corps, et si la circulation de cette énergie venait à être perturbée, des déséquilibres apparaîtraient. Le vitalisme est un pilier de la naturopathie car cette dernière respecte les principes de l’énergie vitale unique et intrinsèque à chacun.
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier mineral-organique).
—————————
Un petite collection documentaire sur l’émergence de la chimie organique au XIXe siècle et son contexte doctrinaire en questionnement et contestation, le vitalisme…
On remarquera que le vitalisme a connu un renouveau en philosophie, notamment avec Bergson et Canguillem. On le rencontre bien sûr en abondance sur le web, en accompagnement des propositions de « vie saine et naturelle »(voir dernier texte ci-dessus)…
Le benzoate de cholestéryle a été le premier matériau dans lequel les propriétés de cristal liquide ont été découvertes. En 1888 Friedrich Reinitzer, un chimiste et botaniste autrichien, au cours de ses études sur la fonction du cholestérol dans les végétaux, fut amené à chauffer du benzoate de cholestéryle. En utilisant le point de fusion comme un indicateur important de la pureté de la substance, il observa l’existence de deux points de fusion et l’évolution de la substance en un liquide trouble puis coloré et enfin transparent. Il découvrit ainsi des propriétés étranges : l’existence de deux points de fusion et la biréfringence d’un fluide, propriétés dont il fit part au physicien allemand Otto Lehmann. Lequel, grâce à la technologie de microscopie en lumière polarisée, put étudier le phénomène et conclure que le liquide trouble était un nouvel état de la matière qu’il appela « cristal liquide ».
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier cristal-liquide).
—————————
La synthèse du benzoate de cholestéryle et quelques compléments.
Gaston Bachelard. Le nouvel esprit scientifique. 1934.
Déjà l’observation a besoin d’un corps de précautions qui conduisent à réfléchir avant de regarder, qui réforment du moins la première vision, de sorte que ce n’est jamais la première observation qui est la bonne. L’observation scientifique est toujours une observation polémique ; elle confirme ou infirme une thèse antérieure, un schéma préalable, un plan d’observation ; elle montre en démontrant ; elle hiérarchise les apparences ; elle transcende l’immédiat ; elle reconstruit le réel après avoir reconstruit ses schémas. Naturellement, dès qu’on passe de l’observation à l’expérimentation, le caractère polémique de la connaissance devient plus net encore. Alors il faut que le phénomène soit trié, filtré, épuré, coulé dans le moule des instruments, produit sur le plan des instruments. Or les instruments ne sont que des théories matérialisées. Il en sort des phénomènes qui portent de toutes parts la marque théorique.
—————————————
Henri Poincaré. La Science et l’Hypothèse. 1902.
Rôle de l’expérience et de la généralisation. L’expérience est la source unique de la vérité : elle seule peut nous apprendre quelque chose de nouveau ; elle seule peut nous donner la certitude. Voilà deux points que nul ne peut contester. Mais alors si l’expérience est tout, quelle place restera-t-il pour la physique mathématique ? Qu’est-ce que la physique expérimentale a à faire d’un tel auxiliaire qui semble inutile et peut-être même dangereux ? Et pourtant la physique mathématique existe ; elle a rendu des services indéniables ; il y a là un fait qu’il est nécessaire d’expliquer. C’est qu’il ne suffit pas d’observer, il faut se servir de ses observations, et pour cela il faut généraliser.
Rôle de l’hypothèse. Toute généralisation est une hypothèse ; l’hypothèse a donc un rôle nécessaire que personne n’a jamais contesté. Seulement elle doit toujours être, le plus tôt possible et le plus souvent possible, soumise à la vérification. Il va sans dire que, si elle ne supporte pas cette épreuve, on doit l’abandonner sans arrière-pensée.
—————————————
Albert Einstein, Leopold Infeld. L’Evolution des idées en physique. 1936.
Dans l’effort que nous faisons pour comprendre le monde, nous ressemblons quelque peu à l’homme qui essaie de comprendre le mécanisme d’une montre fermée. Il voit le cadran et les aiguilles en mouvement, il entend le tic-tac, mais il n’a aucun moyen d’ouvrir le boîtier. S’il est ingénieux il pourra se former quelque image du mécanisme, qu’il rendra responsable de tout ce qu’il observe, mais il ne sera jamais sûr que son image soit la seule capable d’expliquer ses observations. Il ne sera jamais en état de comparer son image avec le mécanisme réel, et il ne peut même pas se représenter la possibilité ou la signification d’une telle comparaison
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier pratique-scientifique).
—————————
Une étude hypothético-théorico-expérimentale de l’oscillateur élastique vertical…Mais aussi, peut-être, un prétexte pour interroger la pratique scientifique ?
11 oct. 2017. Rencontre animée par Cléo Schweyer, journaliste scientifique et chargée de médiation scientifique à l’Université Lyon 1, se déroulant à la bibliothèque municipale de Lyon.
————————————————–
Aurélien Barrau.De la vérité dans les sciences. 2016. Extraits
[…]
Il y a une raison simple pour laquelle la science peut légitimement jouir d’un certain respect dans notre société. Je dis bien respect et non pas primat : les arts et la littérature devraient, à mon sens, être intensément réhabilités, en particulier à l’école où ils pourraient jouer un rôle essentiel qui leur est hélas aujourd’hui confisqué. Toute velléité hégémonique de la démarche scientifique est à proscrire. Mais la raison qui confère donc, je crois, une sorte de respectabilité méritée aux gestes scientifiques, tient à ce qu’ils s’articulent à une pensée authentiquement dynamique. Tout est toujours sujet au doute. Tout peut être remis en cause et, dirais-je, tout doit l’être. Rien n’est acquis. Rien n’est sacré. Rien n’est intouchable. Aucun dogmatisme sévère n’y est toléré. En tout cas, aucun ne résiste à la pression de la découverte et du renouveau. La science (et elle ne s’oppose d’ailleurs en rien à l’art sur ce point) est comme intrinsèquement fragile.
Une équipe de physiciens du CERN a annoncé il y a quelques années la détection de neutrinos se propageant plus vite que la lumière (l’article publié était, il faut le noter, infiniment plus prudent que ce que les médias télévisés en ont relayé). Deux ou trois mois seulement après cet événement – au sens médiatique autant que scientifique car il est rare qu’une avancée scientifique soit relayée au journal de 20 heures ! – ils annonçaient une erreur dans les mesures. Voilà peut-être ce qui caractérise la science : il est possible de dire, et de dire la tête haute, « je me suis trompé ». Qui a déjà vu un politicien, un théologien ou un financier proclamer, après avoir bénéficié des feux de la rampe, « je me suis trompé » ? Un scientifique peut non seulement sans honte reconnaître son erreur, mais cela fait même partie de ce qui fonde la scientificité de son approche. La certitude, en science, n’existe pas.
[…]
Il faut ici faire une remarque essentielle. Du point de vue pratique, il est possible de considérer que chaque nouveau modèle s’approche un peu plus d’une description idéale et que, au fur et à mesure des avancées, les différences entre les prédictions des modèles et les données expérimentales deviennent très minces. En ce sens purement technique, les modèles tendent vers la vérité. Mais du point de vue ontique – c’est-à-dire quant à la nature des êtres décrits, ce qui compte quand on pense par-delà les applications – c’est impossible ! Chaque nouveau modèle remplaçant la proposition précédente est en fait une révolution totale. Chaque nouveau modèle est absolument différent du précédent. Décrire le mouvement d’un corps céleste avec les équations d’Einstein à la place de celles de Newton est (dans la plupart des cas) une infime amélioration du point de vue de la précision qui était déjà excellente dans l’approximation newtonienne. Mais, du point de vue de la description fondamentale du monde, c’est une révision totale et absolue, pas du tout une petite modification. Chez Newton, la Terre tourne autour du Soleil parce qu’une force l’attire et lui impose cette orbite quasi-circulaire. Chez Einstein, la Terre n’est soumise à aucune force. Elle avance en ligne droite dans l’espace courbé par la présence du Soleil. Ça n’a rien à voir ! Les objets et concepts en jeu sont tout autres. De même quand on passe d’une particule ponctuelle classique à un objet – disons une fonction d’onde – quantique. Il est par conséquent très délicat d’imaginer qu’il soit possible de se rapprocher d’une vérité ultime puisque toute révolution scientifique – et, naturellement, une nouvelle est toujours à venir – s’accompagne d’une redéfinition totale du réel. Toute nouvelle image du monde est, pourrions-nous dire, arbitrairement éloignée de celle qu’elle supplante. Comment pourrait-on donc se « rapprocher » du vrai alors même que chaque rupture entraîne une vision infiniment distante de la précédente et tout aussi infiniment distante de la suivante ? Les prédictions sont évidemment de plus en plus précises et adéquates, mais il me semble tout à fait dénué de sens de considérer que le contenu conceptuel de la théorie converge vers la vérité puisque chaque changement de paradigme effondre entièrement la vision précédente, idée qui fait écho à quelques aspects de la philosophie de Thomas Kuhn, épistémologue américain du XXe siècle. Cette simple remarque effrite toute velléité à considérer sérieusement que la science est intrinsèquement vraie.
Une substance aromatisante est une « substance chimique définie possédant des propriétés aromatisantes » (définition article 3.b du Règlement CE 1334/2008).
Une substance aromatisante est dite « naturelle » (encore un abus, puisque est en réalité naturel ce qui n’a pas fait l’objet de l’intervention par un être humain) quand elle est « obtenue par des procédés physiques, enzymatiques ou microbiologiques appropriés, à partir de matières d’origine végétale, animale ou microbiologique prises en l’état ou après leur transformation pour la consommation humaine par un ou plusieurs des procédés traditionnels de préparation des denrées alimentaires dont la liste figure à l’annexe II » (article 3.c du Règlement CE 1334/2008).
Les substances aromatisantes dites naturelles correspondent aux composés qui sont naturellement présents et identifiés dans la nature.
—————————————-
Marcellin Berthelot, Péan de Saint-Gilles. Recherche sur les affinités. 1862.
« …Les esters sont formés par l’union des acides et des alcools ; ils peuvent reproduire en se décomposant les acides et les alcools. […] En général, les expériences consistent, soit à faire agir sur un alcool pur un acide pur, les proportions de l’alcool et de l’acide étant déterminées par des pesées précises, soit à faire agir sur un ester de l’eau. Dans tous les cas de ce genre, le produit final se compose de quatre corps à savoir : l’ester, l’alcool libre, l’acide libre, l’eau. Mais ces quatre corps sont dans des proportions telles qu’il suffit de déterminer exactement la masse d’un seul d’entre eux, à un moment quelconque des expériences, pour en déduire toutes les autres, pourvu que l’on connaisse les masses des matières primitivement mélangées. […] Ceci posé, entre les quatre éléments suivants : ester, alcool, acide, eau, le choix ne saurait être douteux, c’est évidemment l’acide qu’il faut déterminer.[…] On transvase le produit final dans un vase à fond plat, […] on ajoute quelques gouttes de teinture de tournesol, et l’on verse de l’eau de baryte avec une burette graduée jusqu’à ce que la teinte rose ou violacée du tournesol ait viré au bleu franc. […] Mais dans les conditions ordinaires, l’eau intervenant, l’estérification s’arrête à une certaine limite. La limite de la réaction est fixée par des conditions déterminées : elle est à peu près indépendante de la température et de la pression. […] Si on élimine l’eau, la réaction d’un acide sur un alcool peut atteindre un rendement de 100 %… »
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier banane).
Gilbert Lewis était connu pour sa théorie du partage d’électrons dans la liaison chimique et pour sa théorie des acides et des bases. Lewis développa la physique théorique par l’étude de la thermodynamique appliquée à l’équilibre chimique. Il a expliqué plusieurs aspects de la valence des éléments chimiques à l’aide des théories électroniques. En 1904, il proposa la règle d’octet qui décrit la tendance des atomes des éléments représentatifs à s’entourer par huit (8) électrons de valence. En 1916, il identifia la liaison covalente comme un partage d’électrons entre deux atomes, idée développée aussi par le physico-chimiste américain Irving Langmuir. En 1923, il proposa une théorie électronique des acides et des bases, selon laquelle les acides et les bases sont respectivement accepteur et donneur d’une paire d’électrons. […] C’est lui qui, en 1926, proposa le terme « photon » pour le quantum d’énergie rayonnante introduit par Einstein en 1905. […]
La structure de Lewis consiste à définir la localisation des électrons sur ou entre les atomes de la molécule. Seuls les électrons de valence sont considérés. On obtient ainsi une certaine vision de la structure électronique de la molécule par ses doublets libres, ses doublets liants (liaisons σ et π), ses lacunes et ses éventuels électrons célibataires (dans le cas des radicaux). Dans cette représentation, les électrons célibataires sont notés par des points et les paires d’électrons par des traits (plus rarement par deux points). Les traits peuvent être localisés sur un atome (doublet libre ou non liant) ou entre les atomes (doublet liant, liaison covalente).
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier lewis).
—————————
Pour introduire le modèle de Lewis : une activité d’investigation avec exploitation de documents.
Un pacemaker cardiaque à énergie atomique (radioisotope-powered)développé par la Commission de l’énergie atomique des États-Unis (1967).
La technologie de la batterie nucléaire remonte à 1913, lorsque Henry Moseley expérimente le générateur bêtavoltaïque. Ce nouveau domaine suscite rapidement de l’intérêt pour les applications nécessitant des sources d’énergie longue durée. Ce sera notamment le cas pour les besoins spatiaux au cours des années 1950 et 1960. En 1954, RCA étudie une petite batterie atomique pour les petits récepteurs radio et les prothèses auditives. Depuis la recherche initiale et le développement de RCA au début des années 1950, de nombreux types de production et stockage d’électricité à partir de radionucléïdes. Les fondements et principes scientifiques sont bien connus, mais la technologie d’industrialisation à échelle nanométrique requise par les besoins modernes sont encore en développement. On aimerait pouvoir ainsi alimenter des stimulateurs cardiaques, cœurs artificiels, et d’autres objets nécessitant une alimentation fiable, durable et propre.
Henry Moseley (1887 – 1915)
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier betavoltaique).
—————————
Un petite approche du bêtavoltaïque : comment les radionucléides bêta-, par exemple le 14C, peuvent permettre de fabriquer des générateurs électriques…