De quoi sommes-nous fait ? De quoi la matière est-elle constituée ? La matière est-elle continue ou composite ?
1. Atomisme philosophique
Dans la culture Européenne, dès le cinquième siècle avant notre ère, des penseurs grecs présocratique tels que Leucippe, Démocrite ou encore Épicure estiment, de manière prospective et sans recourir à un formalisme mathématique, que la matière est constituée de corpuscules invisibles à l’œil nu, en perpétuel mouvement, insécables et pouvant avoir une infinité de formes. C’est la naissance de l’atomisme philosophique.
Un des principes fondamentaux de l’atomisme philosophique repose sur l’idée que d’une part, les atomes qui composent la matière sont des corpuscules insécables et que la décomposition de la matière ne peut pas se faire à l’infini, et que, d’autre part, l’atome est l’unité structurante de la matière et que celui-ci est indivisible. Cependant, même si cet empirisme tente d’établir cette hypothèse sur des bases scientifiques, cette idée reste purement philosophique et l’atome demeure une intuition sans confirmation.
2. Premières recherches sur les états de la matière
Au XVIIIe siècle, les chimistes britanniques et français, dont Lavoisier, vont s’intéresser aux gaz produits lors de réactions de transformation de la matière. Lavoisier va ainsi démontrer, que l’eau, contrairement à l’idée qui était répandue à l’époque, n’est pas un élément en soi, mais est décomposable en d’autres éléments (oxygène et hydrogène). Il s’agit là d’une première constatation expérimentale de la décomposition de la matière en composants substances élémentaires.
Parallèlement, l’étude des propriétés des gaz et de la chaleur (thermodynamique) permet certaines avancées dans notre compréhension des propriétés de la matière. Le physicien suisse Daniel Bernouilli démontre ainsi que les gaz sont formés de particules en agitation permanente. La démonstration de Bernouilli permet d’expliquer la cinétique des gaz, c’est-à-dire leur variation de température et de pression en fonction de l’agitation de ces particules.
Au début du XIXe siècle, les expériences et les connaissances acquises sur la composition de la matière permettent ainsi de comprendre que la matière est homogène et composée de particules toutes semblables (mais trop petites pour être visibles). Les découvertes du XIXe siècle vont permettre de faire converger ces trois notions (homogénéité, similarité, et échelle microscopique), et d’établir les concepts de molécules et d’atomes.
3. Un modèle qui se précise : le modèle planétaire
John Dalton, chimiste et physicien britannique des XVIIIe et XIXe siècles, est ainsi le premier à faire l’hypothèse atomique de la matière. En s’appuyant sur des expériences de mesure des masses des réactifs et des produits de réaction, il suppose que les atomes sont des entités indivisibles et incassables, que chaque élément chimique est composé d’atomes qui sont tous identiques, et ont tous la même masse. En revanche, les substances composées sont constituées de plusieurs atomes qui se combinent entre eux (cela permet notamment d’expliquer les proportions des réactions chimiques observées expérimentalement à l’époque).
À la fin du XIXe siècle, Joseph John Thompson, physicien Britannique, découvre l’existence des électrons, au travers d’une série d’expériences sur l’étude des rayonnement dans des tubes cathodiques. J.J. Thompson établit alors que les électrons sont chargés négativement et peuvent se détacher facilement de l’atome. Il propose alors un modèle atomique où l’atome est composé d’électrons plongés dans une « soupe » de charge positive qui viennent équilibrer la charge négative des électrons (l’atome est donc de charge neutre).
Au début du XXe siècle, Ernest Rutherford, physicien et chimiste Néo-Zélando-Britannique, s’intéressa à l’emplacement des électrons dans le noyau atomique. Au travers d’une expérience restée célèbre (expérience dite de la feuille d’or), E. Rutherford bombarda une mince feuille d’or de particules alpha (noyaux d’hélium, chargés positivement, obtenus par radioactivité). Il s’attendait à ce que les particules traversent la feuille d’or sans être déviées (conformément au modèle de J.J Thompson qui prédit une structure atomique neutre). Or, E. Rutherford constate qu’une fraction de ces particules est légèrement déviée et que certaines particules de cette fraction (1/20 000) sont totalement réfléchies et rebondissent sur la feuille d’or. Ces résultats expérimentaux sont donc incompatibles avec le modèle de l’atome de J.J Thompson qui suppose une répartition uniforme de la charge, et selon lequel la totalité des particules alpha auraient dû traverser la feuille d’or. En effet, le modèle de J.J Thompson prévoit une répartition uniforme des charges positives et négatives au sein de l’atome. Selon ce modèle, les particules alpha ne devraient pas interagir avec les atomes d’or, mais passer directement au travers. L’existence de ces rebonds s’explique par le fait que les particules alpha, chargées positivement, peuvent interagir avec les noyaux d’atomes également chargés positivement. Or, deux particules de même charge se repoussent systématiquement.
Cette expérience et les observations qui en découlent permettent à Rutherford de postuler que la plupart des particules vont en lignes droites, donc que la matière est lacunaire¹ ; mais certaines sont déviées et même rebroussent chemin, lorsqu’elles rencontrent des îlots très concentrés de matière chargée positivement (les noyaux des atomes d’or). Il en déduit ainsi qu’une zone de l’atome est chargée positivement mais que cette zone est toute petite en taille par rapport au volume de l’atome lui-même. C’est le début de la représentation planétaire de l’atome : l’atome est constitué d’un noyau positif très petit et d’électrons gravitant autour.
Cependant, le modèle de E. Rutherford pose un problème : l’électron qui gravite autour du noyau émet du rayonnement, c’est-à-dire une perte d’énergie, ce qui devrait se traduire par un effondrement des électrons dans le cœur de l’atome. Or, ce n’est pas le cas.
Peu de temps après Niels Bohr propose un modèle atomique quantique selon lequel les orbites des électrons ont des rayons définis², il n’existe que quelques orbites « autorisées » ; ainsi, les échanges d’énergie quantifiés correspondent à des sauts entre les orbites définies, et lorsque l’électron est sur l’orbite la plus basse, il ne peut pas descendre en dessous et s’écraser. Cependant ce modèle n’explique pas pourquoi un tel effondrement n’a pas lieu. De plus, il ne permet pas d’expliquer la structure électronique des systèmes possédant plus d’un électron. Bien qu’incomplet, le modèle de l’atome de Bohr est jalon essentiel de la physique contemporaine³.
4. Le modèle actuel : modèle atomique de Schrödinger
En se basant sur les idées de De Broglie selon lesquelles les particules se comportent comme des ondes, le physicien Autrichien Erwin Schrödinger postula en 1926 que le comportement des électrons à l’intérieur des atomes pouvait être expliqué en traitant mathématiquement ces derniers comme des ondes de matière. Dans ce modèle, les électrons pourraient être mobilisés autour du noyau sous forme d’ondes stationnaires de matière. L’électron dans l’atome n’est donc plus une « bille » mais une densité (un « nuage ») de probabilité de présence qui entoure le noyau.
Ce modèle révolutionnaire n’en est pas moins contre-intuitif et moins commode à se représenter qu’un ensemble d’électrons gravitants autour de leur noyaux. Pourtant, la représentation de l’électron sous forme de « bille » n’est en réalité qu’une transposition sans preuves des observations réalisées dans le monde macroscopique. Il est nécessaire de bien comprendre que l’ensemble des connaissances acquises au début du XXe siècle sur l’électron ne reposaient que sur des manifestations indirectes des états de la matière (expériences de courant électrique, tube cathodique etc.).
Contrairement aux modèle de Rutherford et de Dalton, le modèle de Schrödinger est stable car, au sein de ce modèle, l’électron ne perd pas d’énergie : les états énergétiques des électrons sont similaires aux ondes stationnaires⁴. En considérant les électrons comme des ondes stationnaires de matières, ceux-ci ne peuvent donc prendre que certaines valeurs d’énergie. Ce modèle est connu sous le nom de modèle de mécanique quantique de l’atome. Schrödinger a développé l’équation homonyme pour calculer la probabilité qu’un électron se trouve dans une position spécifique. Au sein de ce modèle, il est seulement possible de déterminer la zone de l’espace où les électrons sont présents le plus souvent, autrement dit, il est possible de déterminer la probabilité de présence d’un électron dans une zone située autour du noyau. Le rayon de l’atome devient alors le rayon de la zone de probabilité maximale de la présence des électrons autour du noyau. Le modèle de Schrödinger est à l’heure actuelle le modèle atomique le plus précis qui existe et qui permette d’expliquer à la fois :
- La stabilité de l’atome ;
- La forme des molécules : orientation préférentielle des nuages électroniques ;
- L’organisation des cristaux ;
- Les effets spectroscopiques⁵.
5. Et maintenant ?
Ainsi, le modèle atomique que nous connaissons à l’heure actuelle s’est constitué au fil de l’Histoire, par les recherches menées sur la composition de la matière. Les recherches et expériences en physique des particules menées durant plus d’un siècle, ont mis en évidence les différentes briques du « modèle standard », théorie qui décrit tous les constituants élémentaires de la matière et leurs interactions. La première particule de ce modèle à avoir été découverte est l’électron, en 1897 par Joseph John Thomson et la dernière est le boson de Higgs en 2012. L’étude de la physique des particules est à l’origine d’applications concrètes très diverses telles que les lasers ou encore les diodes électroluminescentes.
Les avancées scientifiques ont de fait permis une amélioration continue de la compréhension de la matière et de notre Univers ; même s’il reste encore de nombreuses questions à éclaircir. Par exemple, en physique nucléaire, les interactions entre tous les protons et tous les neutrons d’un même noyau sont tellement complexes qu’elles ne peuvent pas être décrites de manière exacte : les chercheurs doivent avoir recours à des approximations pertinentes pour expliquer les propriétés du noyau. Il n’existe pas, à ce jour, de modèle standard qui permettrait d’expliquer l’ensemble des propriétés de tous les noyaux.
La matière qui nous entoure n’est pas la seule à intriguer les physiciens. Actuellement, les scientifiques tentent de mieux comprendre tous les mécanismes liés à la matière : naissance des étoiles, formation des galaxies ou encore début du Big Bang grâce à des missions telles que le télescope spatial James Webb (JWST) qui doit être lancé en octobre 2021 pour remplacer le télescope Hubble. En effet, selon les observations astronomiques, la matière constituée des particules du modèle standard ne représente que 5% de l’Univers. Il resterait donc encore 95 % de la matière qui compose l’univers à décrypter, comprendre et expliquer. Parmi ces mystères, citons la matière noire, une matière théorique, totalement invisible, postulée pour expliquer par exemple les effets gravitationnels qu’elle occasionnerait sur la lumière en provenance de galaxies très lointaines. La traque de la matière noire constitue l’un des grands enjeux scientifiques fondamentaux de ce siècle, notamment pour confirmer la validité du modèle du Big Bang.
Contacts : Pascal Bally · Vincent Weber
¹ Constitué d’espaces vides.
² Avant le modèle de Bohr on ne savait pas se représenter le comportement des électrons autour du noyau. Les modèles proposés avaient comme principale limite qu’ils ne permettaient pas d’expliquer la propriété « apparente » de la matière. En définissant un modèle orbital des électrons, Bohr propose un modèle plus cohérent et plus exact de la matière. Cependant, il s’agit toujours de modèle de représentation et non d’un compte rendu de la réalité.
³ Dans l’histoire de la physique, le modèle de Bohr est le modèle de référence (jusqu’au modèle de Schrödinger) qui a été le plus enseigné et qui rendait le mieux compte de la structuration de la matière.
⁴ Une onde stationnaire est un phénomène physique résultant de la propagation simultanée (dans des sens opposés) de plusieurs ondes de même fréquence et de même amplitude. Certains éléments de l’onde stationnaire sont fixes dans le temps (nœuds). On ne « visualise » donc pas une onde qui se propage mais une vibration stationnaire. (cf. https://www.youtube.com/watch?v=-k2TuJfNQ9s).
⁵ Les effets spectroscopiques font référence ici à la quantification des échanges d’énergie : le nuage électronique ne peut prendre que des formes déterminées.