• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Physique
    Les physiciens déterminent la différence entre vitesse et entropie

    Comprendre la relation entre les taux des processus et l'entropie produite peut donner un aperçu de certains des processus stochastiques qui soutiennent la vie. Crédit :pxfuel

    "Vous devez travailler plus fort pour faire le travail plus rapidement, " explique Gianmaria Falasco, chercheur à l'Université du Luxembourg alors qu'il résume les résultats de ses derniers travaux avec Massimiliano Esposito. Cela ne surprendra pas quiconque ayant une expérience de la course en essayant de respecter les rendez-vous et les délais, mais en définissant des paramètres spécifiques pour la relation entre le travail dépensé en termes de dissipation et la vitesse à laquelle un système change d'état, Falasco et Esposito fournissent un outil précieux pour ceux qui développent des méthodes de manipulation de systèmes hors équilibre, que ce soit le comportement de cellules vivantes ou d'un circuit électronique. En outre, la "relation d'incertitude de temps de dissipation" qu'ils ont développée pour définir ce comportement suggère de manière alléchante d'autres relations d'incertitude en physique quantique.

    La vie est un processus de non-équilibre, maintenir sans cesse un organisme contre la décomposition et la désintégration dans son environnement. Prenez une souris ou toute autre créature à l'équilibre, et tout ce que vous avez est un tas de goo. De nombreux processus cellulaires qui soutiennent la vie peuvent être décrits comme des réactions chimiques essentiellement probabilistes et sujettes aux fluctuations thermiques; néanmoins, ils activent des moteurs moléculaires alimentés par l'adénosine triphosphate (ATP), diverses voies de signalisation cellulaire et de nombreux autres processus biologiques qui nous maintiennent en haleine. Alors que la taille des appareils continue de diminuer, les fluctuations thermiques deviennent de plus en plus importantes dans la dynamique de leurs composants mécaniques, également, sans parler des circuits électroniques qui les pilotent. Pour comprendre ces systèmes et une multitude d'autres systèmes hors équilibre, il y a une grande valeur dans une définition mathématique claire qui détermine le gain entre la dissipation et les taux auxquels ces processus se déroulent.

    Ces derniers résultats des chercheurs de l'Université du Luxembourg font suite aux développements des 20 dernières années de ce qu'Esposito qualifie de « véritable boom » dans le domaine de la physique statistique, et physique statistique hors d'équilibre, en particulier. Au cours des années 1990 et 2000, une série de théorèmes a émergé qui a placé des paramètres autour de la nature probabiliste de la deuxième loi de la thermodynamique, qui stipule que l'entropie d'un système isolé devrait "tendre" à augmenter jusqu'à ce qu'il atteigne l'équilibre. Ces théorèmes de fluctuation ont montré que l'exponentielle de la production d'entropie est égale au rapport de la probabilité de fluctuations se déplaçant dans le sens d'une entropie croissante par rapport à la probabilité de fluctuations allant à contre-courant à cet égard. « Dans un sens, on découvre encore toutes les conséquences de ces relations de fluctuation et de ce domaine qu'on appelle la thermodynamique stochastique, " dit Esposito.

    Un changement de perspective

    Un développement fondamental dans ce tourbillon d'activité a été la « relation d'incertitude thermodynamique, " défini en 2015 par des chercheurs de l'Universität Stuttgart en Allemagne. Ils ont montré que la précision de l'état final d'un système augmentait avec la quantité d'énergie nécessaire pour le déplacer. (Ces théorèmes font généralement référence à de petits systèmes où la dynamique thermique provoque des fluctuations importantes). Pendant ce temps, en physique quantique, un autre développement fondateur avait imposé une limite de vitesse à la vitesse à laquelle vous pouviez réaliser les types de manipulations d'états quantiques utilisés pour le calcul quantique. "Notre travail est né de l'effort de joindre ces deux axes de recherche, " dit Falasco.

    Alors qu'ils s'appliquaient à ce travail, Falasco et Esposito ont remarqué que la plupart des études ont examiné comment un système peut changer son état, mais les systèmes physiques réels effectuant des tâches d'intérêt sont plus susceptibles de changer l'état de leur environnement en déplaçant (ou en changeant) l'énergie ou la matière d'un endroit (ou forme) à un autre. Prends un radiateur, essentiellement un tuyau d'eau chaude reliant la chaudière à une chambre froide - le radiateur ne change pas d'état, mais ça chauffe la pièce. « Nous sommes arrivés à notre résultat en transformant cette idée en mathématiques, " dit Falasco.

    Une fois que Falasco et Esposito ont défini leurs systèmes de cette manière et appliqué le rapport de probabilité défini dans les théorèmes de fluctuation, ils ont pu définir une relation d'une simplicité désarmante décrivant le gain entre le temps mis pour atteindre un état différent et l'énergie dissipée (ou l'entropie produite) :le produit du temps moyen et de l'énergie dissipée ne peut jamais être inférieur à la valeur d'une des constantes universelles de la nature, la constante de Boltzmann.

    Voir cette relation écrite, et cela ressemble de manière fascinante aux relations d'incertitude de Heisenberg pour la précision avec laquelle l'énergie et le temps ou la quantité de mouvement et la position d'un système quantique peuvent être prédites à partir des conditions initiales - le produit de ces quantités ne peut jamais être inférieur à la moitié de la constante de Planck. "L'analogie est donc très frappante et intrigante, " dit Esposito. Mieux comprendre l'importance éventuelle de la similitude sera au centre des futurs travaux dans ce domaine.

    © 2020 Réseau Science X




    © Science https://fr.scienceaq.com