Un refroidisseur intégré :La production de chaleur est désormais le facteur limitant du traitement de l'information. Crédit :Colourbox
Le traitement de l'information demande beaucoup d'énergie. Les systèmes informatiques économes en énergie pourraient rendre l'informatique plus efficace, mais l'efficacité de ces systèmes ne peut pas être augmentée indéfiniment, comme le montrent les physiciens de l'ETH.
Au fur et à mesure que les machines à vapeur se sont répandues au XIXe siècle, la question s'est vite posée de savoir comment les optimiser. Thermodynamique, la théorie physique qui a résulté de l'étude de ces machines, s'est avéré être une approche extrêmement fructueuse; c'est toujours un concept central dans l'optimisation de l'utilisation de l'énergie dans les moteurs thermiques.
La chaleur est un facteur critique
Même à l'ère de l'information, les physiciens et les ingénieurs espèrent utiliser cette théorie; il devient de plus en plus clair que la fréquence d'horloge ou le nombre de puces utilisées ne sont pas des facteurs limitants pour les performances d'un ordinateur, mais plutôt son renouvellement d'énergie. "Les performances d'un centre de calcul dépendent principalement de la quantité de chaleur qui peut être dissipée, " dit Renato Renner, Professeur de physique théorique et chef du groupe de recherche sur la théorie de l'information quantique.
L'affirmation de Renner peut être illustrée par le boom du Bitcoin :ce n'est pas la capacité de calcul elle-même, mais la consommation d'énergie exorbitante - qui produit une énorme quantité de chaleur - et les coûts associés qui sont devenus les facteurs décisifs pour l'avenir de la crypto-monnaie. La consommation d'énergie des ordinateurs est également devenue un important facteur de coût dans d'autres domaines.
Pour le traitement de l'information, la question de réaliser le plus efficacement possible les opérations de calcul en termes thermodynamiques devient de plus en plus urgente – ou pour le dire autrement :comment faire le plus grand nombre d'opérations de calcul avec le moins d'énergie ? Comme pour les machines à vapeur, réfrigérateurs et turbines à gaz, un principe fondamental est ici en cause :l'efficacité peut-elle être augmentée indéfiniment, ou y a-t-il une limite physique qui ne peut fondamentalement pas être dépassée ?
Combiner deux théories
Pour le professeur de l'ETH Renner, la réponse est claire :il y a une telle limite. Avec son doctorant Philippe Faist, qui est maintenant post-doctorant à Caltech, il a montré dans une étude à paraître bientôt dans Examen physique X que l'efficacité du traitement de l'information ne peut pas être augmentée indéfiniment - et pas seulement dans les centres de calcul utilisés pour calculer les prévisions météorologiques ou traiter les paiements, mais aussi en biologie, par exemple lors de la conversion d'images dans le cerveau ou de la reproduction d'informations génétiques dans des cellules. Les deux physiciens ont également identifié les facteurs décisifs qui déterminent la limite.
"Notre travail combine deux théories qui, à première vue, n'ont rien à voir les uns avec les autres :la thermodynamique, qui décrit la conversion de la chaleur dans les processus mécaniques, et théorie de l'information, qui concerne les principes du traitement de l'information, " explique Renner.
Le lien entre les deux théories est suggéré par une curiosité formelle :la théorie de l'information utilise un terme mathématique qui ressemble formellement à la définition de l'entropie en thermodynamique. C'est pourquoi le terme entropie est également utilisé en théorie de l'information. Renner et Faist ont maintenant montré que cette similitude formelle est plus profonde qu'on ne le supposerait à première vue.
Pas de limites fixes
Notamment, la limite d'efficacité pour le traitement de l'information n'est pas fixée, mais peut être influencé :mieux vous comprenez un système, plus vous pouvez adapter le logiciel avec précision à la conception de la puce, et plus les informations seront traitées efficacement. C'est exactement ce qui se fait aujourd'hui dans le calcul haute performance. "Dans le futur, les programmeurs devront également prendre en compte la thermodynamique de l'informatique, " dit Renner. " Le facteur décisif n'est pas de minimiser le nombre d'opérations de calcul, mais en mettant en œuvre des algorithmes qui consomment le moins d'énergie possible."
Les développeurs pourraient également utiliser des systèmes biologiques comme référence ici :« Diverses études ont montré que nos muscles fonctionnent très efficacement en termes thermodynamiques, " explique Renner. " Il serait maintenant intéressant de savoir dans quelle mesure notre cerveau traite les signaux. "
Au plus près de l'optimum
En tant que physicien quantique, La concentration de Renner sur cette question n'est pas une coïncidence :avec la thermodynamique quantique, un nouveau domaine de recherche a émergé ces dernières années, particulièrement pertinent pour la construction d'ordinateurs quantiques. "On sait que les qubits, qui seront utilisés par les futurs ordinateurs quantiques pour effectuer des calculs, doit travailler près de l'optimum thermodynamique pour retarder la décohérence, " dit Renner. " Ce phénomène est un énorme problème lors de la construction d'ordinateurs quantiques, parce qu'il empêche les états de superposition de la mécanique quantique d'être maintenus assez longtemps pour être utilisés pour des opérations de calcul."