• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Physique
    Entropie :la force invisible qui sème le désordre dans l'univers
    L'entropie décrit comment le désordre se produit dans un système aussi grand que l'univers ou aussi petit qu'un thermos plein de café. José A. Bernat Bacete/Getty Images

    Vous ne pouvez pas facilement remettre le dentifrice dans le tube. Vous ne pouvez pas vous attendre à ce que les molécules de vapeur migrent spontanément pour former une boule d'eau. Si vous relâchez un groupe de chiots corgi dans un champ, il est très peu probable que vous puissiez tous les rassembler dans une caisse sans faire une tonne de travail. Ce sont les problèmes associés à la deuxième loi de la thermodynamique, également connue sous le nom de loi de l'entropie.

    Contenu
    1. La deuxième loi de la thermodynamique
    2. La définition du trouble
    3. L'entropie prête à confusion

    La deuxième loi de la thermodynamique

    La thermodynamique est importante pour diverses disciplines scientifiques, de l'ingénierie aux sciences naturelles en passant par la chimie, la physique et même l'économie. Un système thermodynamique est un espace confiné, qui ne laisse ni entrer ni sortir d'énergie.

    La première loi de la thermodynamique concerne la conservation de l'énergie - vous vous souvenez probablement d'avoir déjà entendu dire que l'énergie dans un système fermé reste constante ("l'énergie ne peut être ni créée ni détruite"), à moins qu'elle ne soit altérée de l'extérieur. Cependant, l'énergie change constamment de forme - un incendie peut transformer l'énergie chimique d'une plante en énergie thermique et électromagnétique. Une batterie transforme l'énergie chimique en énergie électrique. Le monde tourne et l'énergie devient moins organisée.

    "La deuxième loi de la thermodynamique s'appelle la loi d'entropie", nous a expliqué Marko Popovic, chercheur postdoctoral en biothermodynamique à l'École des sciences de la vie de l'Université technique de Munich, dans un e-mail. "C'est l'une des lois les plus importantes de la nature."

    L'entropie est une mesure du désordre dans un système fermé. Selon la deuxième loi, l'entropie dans un système augmente presque toujours avec le temps - vous pouvez faire du travail pour créer de l'ordre dans un système, mais même le travail qui est consacré à la réorganisation augmente le désordre en tant que sous-produit - généralement sous forme de chaleur. Parce que la mesure de l'entropie est basée sur des probabilités, c'est bien sûr possible pour que l'entropie diminue dans un système à l'occasion, mais c'est statistiquement très improbable.

    La définition du désordre

    Il est plus difficile que vous ne le pensez de trouver un système qui ne laisse pas entrer ou sortir l'énergie - notre univers en est un aussi bon exemple que nous - mais l'entropie décrit comment le désordre se produit dans un système aussi grand que l'univers ou aussi aussi petit qu'un thermos rempli de café.

    Cependant, l'entropie n'a rien à voir avec le type de désordre auquel vous pensez lorsque vous enfermez un groupe de chimpanzés dans une cuisine. Cela a plus à voir avec combien de permutations possibles de désordre peut être fait dans cette cuisine plutôt que gros un gâchis est possible. Bien sûr, l'entropie dépend de nombreux facteurs :combien de chimpanzés il y a, combien de choses sont stockées dans la cuisine et quelle est la taille de la cuisine. Donc, si vous deviez regarder deux cuisines - une très grande et remplie jusqu'aux branchies mais méticuleusement propre, et une autre plus petite avec moins de choses, mais déjà assez saccagée par les chimpanzés - il est tentant de dire que la pièce la plus désordonnée a plus entropie, mais ce n'est pas nécessairement le cas. L'entropie se préoccupe davantage du combien d'états différents sont possibles qu'à quel point il est désordonné en ce moment ; un système a donc plus d'entropie s'il contient plus de molécules et d'atomes, et s'il est plus gros. Et s'il y a plus de chimpanzés.

    L'entropie est déroutante

    L'entropie pourrait être le concept scientifique le plus vrai que le moins de gens comprennent réellement. Le concept d'entropie peut être très déroutant, en partie parce qu'il existe en fait différents types. Le mathématicien hongrois John von Neumann a ainsi déploré la situation :"Celui qui utilise le terme 'entropie' dans une discussion gagne toujours puisque personne ne sait ce qu'est réellement l'entropie, donc dans un débat, on a toujours l'avantage."

    "Il est un peu difficile de définir l'entropie", explique Popovic. "Peut-être est-il mieux défini comme une propriété thermodynamique non négative, qui représente une partie de l'énergie d'un système qui ne peut pas être convertie en travail utile. Ainsi, tout ajout d'énergie à un système implique qu'une partie de l'énergie sera transformée en entropie, augmentant le désordre dans le système. Ainsi, l'entropie est une mesure du désordre d'un système."

    Mais ne vous sentez pas mal si vous êtes confus :la définition peut varier en fonction de la discipline qui l'exerce en ce moment :

    Au milieu du XIXe siècle, un physicien allemand du nom de Rudolph Clausius, l'un des fondateurs du concept de thermodynamique, travaillait sur un problème concernant l'efficacité des machines à vapeur et inventa le concept d'entropie pour aider à mesurer l'énergie inutile qui ne peut être convertie en travail utile. Quelques décennies plus tard, Ludwig Boltzmann (l'autre "fondateur" de l'entropie) a utilisé le concept pour expliquer le comportement d'un nombre immense d'atomes :même s'il est impossible de décrire le comportement de chaque particule dans un verre d'eau, il est toujours possible de prédire leur comportement collectif lorsqu'ils sont chauffés à l'aide d'une formule d'entropie.

    "Dans les années 1960, le physicien américain E.T. Jaynes a interprété l'entropie comme une information qui nous manque pour spécifier le mouvement de toutes les particules dans un système", explique Popovic. "Par exemple, une mole de gaz est constituée de 6 x 10 23 particules. Ainsi, pour nous, il est impossible de décrire le mouvement de chaque particule, alors nous faisons la meilleure chose suivante, en définissant le gaz non pas par le mouvement de chaque particule, mais par les propriétés de toutes les particules combinées :température, pression , énergie totale. L'information que nous perdons lorsque nous faisons cela est appelée entropie."

    Et le concept terrifiant de "la mort thermique de l'univers" ne serait pas possible sans entropie. Parce que notre univers a très probablement commencé comme une singularité - un point d'énergie infiniment petit et ordonné - qui a gonflé et continue de s'étendre tout le temps, l'entropie ne cesse de croître dans notre univers car il y a plus d'espace et donc plus d'états de désordre potentiels pour les atomes ici à adopter. Les scientifiques ont émis l'hypothèse que, longtemps après que vous et moi soyons partis, l'univers finira par atteindre un certain point de désordre maximum, auquel point tout sera à la même température, sans aucune poche d'ordre (comme les étoiles et les chimpanzés) à trouver. /P>

    Et si cela se produit, nous aurons de l'entropie à remercier pour cela.

    Maintenant c'est intéressant

    Le scientifique du XXe siècle, Sir Arthur Eddington, pensait que le concept d'entropie était si important pour la science qu'il écrivait dans La nature du monde physique en 1928 :"La loi selon laquelle l'entropie augmente toujours occupe, je pense, la position suprême parmi les lois de la nature. ... Si votre théorie s'avère contraire à la deuxième loi de la thermodynamique, je ne peux vous donner aucun espoir ; il n'y a rien pour qu'elle s'effondre dans la plus profonde humiliation."




    © Science https://fr.scienceaq.com