La toute première voiture électrique date de 1834. Le moteur à explosion, plus complexe, a vu son émergence plus tard, en 1861. La première commercialisation d’un véhicule électrique remonte à 1852. Mais ces premiers modèles n’utilisaient pas de batterie électrique rechargeable : il faudra attendre pour cela 1850 et l’invention de la batterie rechargeable au plomb acide par Gaston Planté puis les travaux de Camille Faure, qui permettront à la voiture électrique d’avoir un véritable succès. La « Jamais Contente » de Camille Jenatzy bat le record de vitesse en 1899 en dépassant les 100 km/h, et en 1900, une flotte de taxis électriques sillonne les rues de New-York. À l’époque, 38 % du marché automobile américain est capté par les véhicules électriques. Faciles à démarrer, ne laissant pas derrière elles un nuage irrespirable de fumée noire, ces voitures sont bien supérieures aux voitures thermiques de l’époque.
La Nature est une revue de vulgarisation scientifique fondée en 1873 par Gaston Tissandier (1843-1899). En 1972, elle est absorbée par La Recherche.
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier innovations).
—————————
Les articles ci-dessous sont extraits de la revue La Nature (publications de la fin du XIXe, début XXe siècle) . On pourra analyser les innovations présentées et s’interroger sur leur histoire…
Pour un observateur superficiel, la vérité scientifique est hors des atteintes du doute ; la logique de la science est infaillible et, si les savants se trompent quelquefois, c’est pour en avoir méconnu les règles. Les vérités mathématiques dérivent d’un petit nombre de propositions évidentes par une chaîne de raisonnements impeccables ; elles s’imposent non seulement à nous, mais à la nature elle-même. Elles enchaînent pour ainsi dire le Créateur et lui permettent seulement de choisir entre quelques solutions relativement peu nombreuses. Il suffira alors de quelques expériences pour nous faire savoir quel choix il a fait. De chaque expérience, une foule de conséquences pourront sortir par une série de déductions mathématiques, et c’est ainsi que chacune d’elles nous fera connaître un coin de l’Univers. Voilà quelle est pour bien des gens du monde, pour les lycéens qui reçoivent les premières notions de physique, l’origine de la certitude scientifique. Voilà comment ils comprennent le rôle de l’expérimentation et des mathématiques. C’est ainsi également que le comprenaient, il y a cent ans, beaucoup de savants qui rêvaient de construire le monde en empruntant à l’expérience aussi peu de matériaux que possible. Quand on a un peu plus réfléchi, on a aperçu la place tenue par l’hypothèse ; on a vu que le mathématicien ne saurait s’en passer et que l’expérimentateur ne s’en passe pas davantage. Et alors, on s’est demandé si toutes ces constructions étaient bien solides et on a cru qu’un souffle allait les abattre. Être sceptique de cette façon, c’est encore être superficiel. Douter de tout ou tout croire, ce sont deux solutions également commodes, qui l’une et l’autre nous dispensent de réfléchir. Au lieu de prononcer une condamnation sommaire, nous devons donc examiner avec soin le rôle de l’hypothèse ; nous reconnaîtrons alors, non seulement qu’il est nécessaire, mais que le plus souvent il est légitime.
Jean-Pierre Terrail. L’école et les savoirs. A propos d’un ouvrage d’Astolfi. 2012. EXTRAIT
Une posture constructiviste assumée et ouverte. Astolfi s’affirme pleinement constructiviste, mais sans naïveté. Sans oublier, en particulier, la première des trois acceptions possibles du terme, le constructivisme épistémologique. Pour ce dernier, la connaissance se construit non par la soumission aux faits, mais par l’investigation théorique : la transmettre, c’est permettre l’appropriation des questions qu’elle pose plutôt que les connaissances qu’elle produit. Le second registre auquel cette notion s’applique est celui des apprentissages cognitifs, qui s’opèrent par remaniement des représentations préexistantes, chaque élève apprenant en fonction de ce qu’il est en mesure d’assimiler, de façon imprévisible pour l’enseignant. Le troisième registre est celui du constructivisme pédagogique, selon lequel on ne peut conduire la pensée des élèves en leur lieu et place, on ne peut que construire des situations didactiques et des dispositifs d’apprentissage correspondant à chaque objet d’enseignement.
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier methode).
—————————
Y a-t-il une méthode scientifique ? Et y a-t-il une méthode pour enseigner la science ?Des sujets d’investigation, de réflexion, de discussion, alimentés par des exemples de problématiques, des éléments de d’analyses et des propositions d’auteurs…
Proposition de travail sur l’un des exemples :Chute
Universellement reconnu comme le découvreur des lois qui établissent les mouvements des planètes selon leur orbite, Johannes Kepler (1571 – 1630) s’inscrit dans la constellation des immenses astronomes modernes, tels Copernic, Galilée ou Tycho Brahe… Mais il est également l’auteur, bien peu connu, d’une étonnante fiction, Le Songe, qui transporte le lecteur de la Terre à la Lune, depuis laquelle alors se découvre autrement l’univers ; un récit en tout point remarquable en ce qu’il voit le jour au cours de cette révolution astronomique du XVIIe siècle, qui transforma radicalement la représentation que l’homme pouvait se faire de la place qu’il occupait au sein du cosmos, en l’amenant à quitter un monde clos pour n’être plus qu’un point dans l’univers infini.
La physique céleste. L’extension du modèle du mouvement de Mars à toutes les planètes, suggérée dans l’Astronomia nova, s’affirme explicitement dans la dernière des grandes publications de Kepler, l’Epitome astronomiae copernicanae, dont l’impression fut achevée en 1621 et qui rassemble diverses mises au point intermédiaires. Cette extension est faite jusqu’aux satellites de Jupiter récemment découverts par Galilée, car Kepler a davantage profité des inventions de Galilée que Galilée n’a tiré parti des travaux de Kepler. C’est dans l’Epitome que se trouve une troisième loi, élaborée en 1618, celle de la proportionnalité des carrés des périodes de révolution des planètes aux cubes de leurs moyennes distances au Soleil, qui achève la structure mathématique des mouvements planétaires. Cette structure complète, considérée comme régissant tous les astres mobiles, est évidemment pour Kepler la manifestation d’une physique céleste. Sans doute, après la longue ascèse que l’auteur avait dû s’imposer, voici que reprennent les considérations à la fois mystiques et métaphysiques des années de jeunesse. L’harmonie du monde créé hante sous toutes ses formes, y compris la musique, la pensée d’un homme dont les mathématiques n’étanchent pas la soif de comprendre. Mais, à travers tant d’essais dont, une fois de plus, il ne restera rien, une idée cependant demeure. C’est dans le Soleil, centre du monde planétaire et foyer des mouvements elliptiques, que doit résider le secret. Quelque chose émane de lui, comme en émanent la chaleur et la lumière ; quelque chose qui explique pourquoi les planètes suivent les lois découvertes. Si Kepler n’est pas allé plus loin, il a laissé à son siècle le thème fondamental de réflexion et les schémas analogiques d’où sortira, soixante ans plus tard, la gravitation universelle.
Tycho Brahe marque une rupture dans l’histoire de l’astronomie et plus généralement dans l’histoire des sciences. À une époque où prévaut encore le respect de la tradition et des anciens, il donne la priorité à l’observation, avec le souci constant de valider ses hypothèses au regard de celles-ci. Il prend grand soin de la fabrication et de la mise au point de ses instruments, qui lui permettent de recueillir un nombre considérable de données. Bien qu’effectuées à l’œil nu, ces mesures sont, à leur meilleur, au moins dix fois plus précises que celles de ses prédécesseurs en Europe. Ainsi, ses observations de la supernova de 1572 le conduisent à remettre en cause l’immuabilité du monde supra-lunaire énoncée par Aristote, remise en cause confirmée par ses observations de la grande comète de 1577, dont il met en évidence qu’elle ne peut être un phénomène atmosphérique (sub-lunaire). Ses observations très précises des positions de la planète Mars jouent un rôle décisif dans la découverte par Johannes Kepler de la trajectoire des planètes et plus généralement des trois lois qui régissent leurs mouvements.
Le calcul de l’orbite de Mars. Poursuivi pour ses convictions religieuses et ses idées coperniciennes, il [Kepler] doit quitter Graz en 1600. Il se réfugie à Prague, invité par l’astronome danois Tycho Brahe pour y devenir son assistant. Les relations entre les deux personnages furent particulièrement houleuses ; Tycho Brahe ne croyant pas à l’héliocentrisme de Copernic mais soutenant une autre théorie dans laquelle la Terre est au centre mais les autres planètes tournent autour du Soleil. Kepler voyait en Tycho Brahe un homme plein de richesses (ses mesures étaient très précises) mais qui ne savait les exploiter correctement. Brahe lui demanda de calculer l’orbite précise de Mars, pour laquelle il avait remarqué une excentricité dans sa trajectoire, considérée comme une anomalie à une époque où l’on pensait encore que les planètes décrivaient des cercles, figure parfaite.
——————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier geo-helio).
—————————
Tycho Brahe et Johannes Kepler : l’émergence de l’astronomie moderne.
Le paradoxe d’Olbers. Le fait que l’Univers a un âge fini apporte un éclairage nouveau sur un problème relativement ancien d’abord posé par Kepler et repris en termes plus précis par Heinrich Olbers en 1826. Ce problème est connu sous le nom de paradoxe d’Olbers et s’énonce ainsi : pourquoi le ciel est-il noir la nuit ? Imaginez que vous vous trouviez au centre d’une forêt assez dense. Entre les troncs relativement proches, vous pouvez apercevoir des arbres plus éloignés. Entre les interstices laissés par ces derniers, vous pouvez distinguer quelques arbres encore plus lointains, et ainsi de suite. Quelle que soit sa direction, votre regard finit toujours par rencontrer un arbre et vous ne pourrez donc observer ni les limites de la forêt, ni au-delà. Jusqu’au début du XXe siècle, les astronomes considéraient que la situation était équivalente si l’on considérait les étoiles dans l’Univers. A cette époque, l’Univers était considéré comme statique, éternel, homogène et infini. Avec ces propriétés, les étoiles de l’Univers devaient se comporter comme les arbres de la forêt. Notre regard, peu importe sa direction, finissait toujours par aboutir à une étoile. Tous les points de la voûte céleste devaient donc briller et, par conséquent, le ciel nocturne aurait dû présenter une forte luminosité. Ceci n’est évidemment pas le cas, d’où le paradoxe. Olbers proposa l’explication suivante au paradoxe en 1826 : le ciel nocturne était noir parce que la matière interstellaire absorbait le rayonnement des étoiles et affaiblissait donc leur lumière. Cependant, comme le stipule la thermodynamique, l’énergie doit toujours se conserver. Ainsi, le rayonnement absorbé par le milieu interstellaire devait être réémis sous une forme ou une autre et l’explication d’Olbers ne tenait pas.
———————————
Camille Flammarion. Astronomie. 1902.
———————————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier nuit-noire).
—————————
Pourquoi la nuit est-elle noire ? Un travail d’investigation à partir du paradoxe d’Olbers.
The London, Edinburgh and Dublin Philosophical Magazine and Journal of Science. 1871.
XV. On the Light from the Sky, its Polarization and Colour.By the Hon. J. W. STRUTT, Fellow of Trinity College, Cambridge.
It is now, I believe, generally admitted that the light which we receive from the clear sky is due in one way or another to small suspended particles which divert the light from its regular course. On this point the experiments of Tyndall withprecipitated clouds seem quite decisive. Whenever the particlesof the foreign matter arc sufficiently fine, the light emitted laterally is blue in colour, and, in a direction perpendicular to thatof the incident beam, is completely polarized.
XV. De la lumière du ciel, de sa polarisation et de sa couleur.Par l’Honorable J. W. Strutt, membre du Trinity College de Cambridge.
Il est aujourd’hui généralement admis que la lumière que nous recevons du ciel clair est due, d’une manière ou d’une autre, à de fines particules en suspension qui la dévient de sa trajectoire normale. À cet égard, les expériences de Tyndall sur les nuages précipités semblent tout à fait concluantes. Lorsque les particules de ces corps étrangers sont suffisamment fines, la lumière émise latéralement est bleue et, dans une direction perpendiculaire à celle du faisceau incident, elle est totalement polarisée.
Le ciel apparait bleu car des rayons indirects du soleil sont diffusés dans toutes les directions par les molécules qui constituent l’atmosphère, et certains de ces rayons atteignent l’œil. Comme les molécules diffusent mieux le bleu que le rouge, le ciel a une couleur bleue.
———————————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier ciel-bleu).
—————————
Une investigation à base documentaire pour expliquer le bleu du ciel. Après ce travail de construction de savoir, on pourra exercer une regard critique sur les réponses des IAs à diverses requêtes… On remarquera dans les exemples ci-joints la limitation des réponses à la diffusion de Rayleigh et la « légèreté » des schémas proposés.
Pierre-Simon Laplace. Mémoire sur la chaleur. 1780.
Les physiciens sont partagés sur la nature de la chaleur ; plusieurs d’entre eux la regardent comme un fluide répandu dans toute la nature et dont les corps sont plus ou moins pénétrés, à raison de leur température et de leur disposition particulière à le retenir ; il peut se combiner avec eux, et, dans cet état, il cesse d’agir sur le thermomètre et de se communiquer d’un corps à l’autre ; ce n’est que dans l’état de liberté, qui lui permet de se mettre en équilibre dans les corps, qu’il forme ce que nous nommons chaleur libre. D’autres physiciens pensent que la chaleur n’est que le résultat des mouvements insensibles des molécules de la matière. On sait que les corps, même les plus denses, sont remplis d’un grand nombre de pores ou de petits vides, dont le volume peut surpasser considérablement celui de la matière qu’ils renferment ; ces espaces vides laissent à leurs parties insensibles la liberté d’osciller dans tous les sens, et il est naturel de penser que ces parties sont dans une agitation continuelle qui, si elle augmente jusqu’à un certain point, peut les désunir et décomposer les corps ; c’est ce mouvement intestin qui, suivant les physiciens dont nous parlons, constitue la chaleur.
Gaston Bachelard. Étude sur l’évolution d’un problème de physique. La propagation thermique dans les solides. 1973.
On n’a pas trouvé d’expérience cruciale entre la théorie du calorique et la théorie dynamique de la chaleur comme entre la théorie de l’émission et celle des vibrations dans le domaine de la lumière. L’agitation désordonnée que la théorie dynamique suppose ne peut se manifester pur aucune expérience directe ; entre autres, des interférences d’ensemble sont impossibles à mettre en œuvre. Le cinétisme confus est mécaniquement inefficace. C’est une objection qu’on a souvent soulevée contre les théories cinétiques. Lamarck écrivait dans ses Recherches sur les causes des principaux faits physiques : « J’observe que tout fluide, quel qu’agite qu’il soit, ne communique aux corps solides qu’il touche, qu’un mouvement de masse, et ne peut jamais produire aucun mouvement particulier dans les parties qui constituent ces corps… La raison en est simple et facile à saisir : en effet comme les molécules des fluides sont libres, et qu’elles n’ont jamais plus de force dans leur mouvement que celle qui est relative à leur propre masse, elles ne sont jamais capables d’ébranler une molécule d’un solide, dans l’état d’agrégation, parce que celle-ci résiste à la molécule libre, avec toute la force du solide entier ». La réciproque est vraie : entre le mouvement d’ensemble et te mouvement moléculaire il n’y a aucune communication possible. D’ailleurs le succès de la théorie cinétique des gaz n’entraîne pas ipso facto la nécessité d’admettre une théorie dynamique de la construction thermique dans les solides. Autre chose est d’examiner un milieu sans liaison, dont la distribution est soumise uniquement au hasard, comme est le gaz, et d’étudier un milieu extrêmement solidaire, dont la structure décèle une géométrie prodigue en déterminations, comme est le cristal.
———————————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier chaleur-temperature).
—————————
Un travail d’exploration sur chaleur et température. Les conclusions peuvent évidemment donner lieu à un apport magistral. On trouvera quelques exemples de réponses des IA à diverses requêtes.
Le développement rapide et continu des IA, et notamment des IA génératives, leur simplicité d’usage et la diversité des contenus qu’elles ont la capacité de produire, en accès souvent gratuit mais peu respectueux des données personnelles, suscitent d’intenses réflexions quant à leurs applications pour l’éducation, en France comme à l’international. De fait, les IA peuvent remettre en question de façon profonde certains fondamentaux de l’École, comme le rapport à la connaissance et aux apprentissages, la construction de cours, la production de devoirs et leur évaluation. Elles peuvent par ailleurs s’avérer des outils au service de l’enseignement et des apprentissages, mais aussi pour soutenir le « geste enseignant » (dans la préparation de cours, l’aide à l’évaluation, etc.) et pour simplifier des tâches administratives, dès lors que les agents en maîtrisent les enjeux et les usages. L’École doit donner aux élèves les clés pour comprendre cette technologie, en appréhender les opportunités comme les limites, développer un esprit critique à son égard et, pour certains – filles comme garçons –, leur permettre de s’orienter vers des études et des métiers dans le domaine de l’intelligence artificielle. Si l’IA constitue un enjeu et un apport potentiel pour l’éducation, elle doit néanmoins être utilisée dans le respect d’un cadre éthique et juridique, de manière consciente et raisonnée alors que les outils disponibles actuellement sont majoritairement non souverains, non libres, opaques dans leur fonctionnement et leurs données d’entraînement, et consommateurs en ressources et en énergie.
L’IA est devenue en deux ans un grand sujet pour l’école, elle fait gagner du temps aux cadres et aux professeurs qui l’utilisent (il y a plein de manières de s’en servir, nous en parlerons) et aux élèves, ce qui exige de redéfinir le travail demandé à la maison par exemple. Que sait-on au juste des pratiques des uns et des autres ? Des solutions vraiment intéressantes sont-elles proposées par l’IA pour améliorer les apprentissages ? Peut-on faire confiance aux géants de la tech pour aller dans les bonnes directions pédagogiques, éthiques, et économiques ? En résumé, peut-on mettre l’intelligence artificielle au service de l’éducation ?
Le cadre d’usage du MEN : encadrer et limiter les pratiques !
Le Cadre d’usage proposé par le MEN a une caractéristique principale : encadrer c’est-à-dire mettre en garde, fixer des limites, rappeler les interdictions. Cette manière de faire, qui semble située culturellement, a pour but de fixer des limites ce que l’on retrouve souvent dans la manière dont, actuellement, les responsables politiques orientent leur action. Si cette manière de faire permet de rassurer les acteurs, elle n’aborde pas directement les deux questions essentielles : celle des pratiques sociales de l’IA d’une part et celle de la pédagogie et de la didactique face à l’IA. Si le texte parle des potentialités, il y associe aussitôt les risques et les limites. On retiendra en particulier ce passage étonnant : « L’utilisation d’une intelligence artificielle générative pour réaliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation à partir des contenus produits, constitue une fraude. » Le terme de « fraude » employé ici semble amener à des sanctions avant même que soit posée la question du contexte, en particulier celui des devoirs à la maison. Les seules préconisations pédagogiques du texte sont rassemblées en fin de texte de manière un peu courte : « Adaptez les devoirs et les modalités d’évaluation », « N’utilisez l’IA que lorsqu’une plus-value pédagogique est avérée » et « Adaptez les usages de l’IA générative en fonction du niveau ». Ce qui ressort de ce texte c’est avant tout la volonté de « limiter » les actions de terrain et de « protéger » l’institution. Et il semble que ce soit là la difficulté des décideurs face à une transformation importante de la société et donc de l’enseignement. Alors que les responsables institutionnels rappellent constamment les fondamentaux, ils sont face à une réalité pour laquelle ils ont bien du mal à se situer.
———————————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier coureur-balle-IA).
—————————
Une proposition d’utilisation des IA agents conversationnels (ChatGpt, Gemini, Claude, Perplexity, LeChat, Yiaho…) dans une activité d’investigation de la relativité galiléenne et des lois de Newton : le coureur et la balle.
Des exemples de réponses des agents. On remarquera la « légèreté » des dessins ou schémas proposés. Ils peuvent évidemment contribuer à la discussion critique…
Ce sont d’énormes entrepôts, hypersécurisés, qui abritent des milliers de serveurs informatiques qui tournent jours et nuits… qui stockent, reçoivent, envoient les milliards de milliards de données de nos activités numériques. Un email, un site internet, une photo envoyée par messagerie, un film en streaming, une réunion de travail à distance, rien n’est possible sans les DataCenters. Et comme tout bascule dans le numérique (économie, santé, éducation, culture, sport, loisirs) il y en a de plus en plus ! 250 Centres de données en France, surtout en région parisienne et à Marseille, qui est devenu la 5ème plateforme mondiale d’Internet grâce aux câbles sous-marins et aux data centers. Le revers de la médaille, c’est l’impact environnemental. Ils sont énergivores, parfois comparé à des « grille-pains climatisés ». « Grilles pains » parce que les serveurs chauffent beaucoup quand ils tournent et ils tournent en permanence. « Climatisés » parce qu’il faut impérativement les refroidir, beaucoup et en permanence. Au final, la facture climatique est salée. Cette réalité interroge la production effrénée de données qui va avec nos sociétés toujours plus numériques. Cela interroge aussi nos usages personnels ou professionnels de l’Internet. Cela pose aussi des défis énormes à la filière qui tente d’innover.
Alain Conrard. L’univers numérique, un univers immatériel ? Vraiment ?
Un immatériel très matériel. L’univers numérique semble opposer ses caractéristiques à celles, pesantes et palpables, de l’univers « réel » ? Pourtant, ces deux univers ne sont pas sans liens, loin de là. L’immatérialité impacte grandement le palpable : la transformation numérique transforme aussi – c’est le moins qu’on puisse dire – le monde matériel. Il faut mettre en question la perception de l’univers digital comme synonyme d’immatérialité. Car la croyance spontanée en l’immatérialité du monde numérique repose sur deux erreurs de perception. D’abord, parce que l’univers digital est tout sauf immatériel. En réalité, il s’agit d’une matérialité que l’on pourrait qualifier de « déplacée » hors du champ de la perception. On est loin de s’être débarrassé de la pesanteur des choses. En effet, cette immatérialité pèse en réalité très lourd. L’univers numérique existe grâce à une titanesque infrastructure technologique à échelle planétaire (câbles transocéaniques, méga-serveurs, data centers, satellites de communication, etc.). Sans cette gigantesque machinerie, l’IA, le big data et la croissance exponentielle des données et de leur traitement ne seraient tout simplement pas possibles. Sans compter les énormes flux financiers d’investissement ou le nombre d’êtres humains, de véhicules et de machines nécessaires pour assurer le bon fonctionnement et l’entretien de ces éléments.
———————————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier data-center).
—————————
Pour cultiver la conscience de la titanesque matérialité du numérique virtuel…
Yves Faucoup.Chroniqueur social. Ce blog est personnel, la rédaction [de Médiapart] n’est pas à l’origine de ses contenus. La face cachée de la méthanisation.
Les pouvoirs publics se lancent dans un programme démesuré en faveur de la méthanisation, sans que le grand public n’en soit informé et sans que les inconvénients et dangers ne soient mis en avant. Comment riverains, scientifiques, écologistes et paysans s’y opposent. Pour tenter de se montrer impliqué dans la transition écologique, le pouvoir cherche à développer la production de méthane (CH4), un gaz produit par des réactions chimiques provoquées par l’homme sur de la matière organique transformée. Des esprits peu informés se disent : c’est très bien, comme les panneaux photovoltaïques. Sauf que dans les deux cas, les autorités procèdent comme d’habitude : à l’arrache, et souvent en mentant par omission, quand il faudrait y aller avec réflexion, modération et réelle concertation locale. Le discours officiel pousse les agriculteurs à investir massivement dans la méthanisation, en leur faisant miroiter des royalties, plutôt que de faire en sorte qu’ils soient rémunérés correctement pour leurs productions agricoles. Le rendement énergétique est faible, les subventions de l’État très élevées. Quant aux riverains, ils n’ont que leurs yeux pour pleurer : odeurs pestilentielles, passages répétés de camions, perte de valeur de leur maison devenue quasiment invendable, coût des dégradations des routes à la charge des communes et départements (soit des contribuables). […] Daniel Chateigner montre, tableaux à l’appui, que 90 % des digestats (matière organique non dégradées) sont rejetés, que le lisier de porcs produit peu de méthane. Du coup, les méthaniseurs plantent du maïs et autres végétaux pour obtenir plus de méthane, ce qui est une aberration. Le rendement énergétique est extrêmement faible (4 %, contre 16 % pour l’éolien et 40 % pour l’hydraulique). Par ailleurs, le coût est considérable et suppose de fortes subventions. […]
Paul Rötig. Méthanisation agricole : Une opportunité d’avenir. 2024. EXTRAIT.Les atouts de la méthanisation. Tout d’abord, la méthanisation permet de produire de l’énergie. Le biogaz généré est utilisé pour produire de l’électricité, de la chaleur ou être épuré en biométhane et injecté dans le réseau de gaz. D’autre part, elle permet de valoriser les biodéchets agricoles et industriels. La méthanisation permet de traiter et valoriser les déchets organiques, réduisant ainsi les émissions de gaz à effet de serre (comparé aux anciennes méthodes d’enfouissement, incinération…). Pour finir, elle contribue à la production d’engrais organique. Le digestat issu de la méthanisation est un engrais de qualité qui peut retourner au sol, améliorant sa fertilité et sa structure.
———————————————
Tous les documents indiqués sont téléchargeables à l’adresse DOCS (dossier methanisation).
—————————
Une collection documentaire à exploiter, comme proposé par exemple au document :