Les outils de nos smartphones sont activés par un vaste réseau de tours de téléphonie mobile, Réseaux Wi-Fi et fermes de serveurs. Crédit :Shutterstock
Il ne fait aucun doute que la révolution des technologies de l'information a amélioré nos vies. Mais à moins de trouver une nouvelle forme de technologie électronique qui utilise moins d'énergie, l'informatique deviendra limitée par une « crise énergétique » d'ici quelques décennies.
Même les événements les plus courants de notre vie quotidienne – passer un appel téléphonique, envoyer un SMS ou consulter un e-mail – utilisez la puissance de calcul. Certaines tâches, comme regarder des vidéos, nécessitent beaucoup de traitement, et consomment donc beaucoup d'énergie.
En raison de l'énergie nécessaire pour alimenter le massif, des centres de données et des réseaux de taille usine qui se connectent à Internet, l'informatique consomme déjà 5% de l'électricité mondiale. Et cette charge électrique double tous les dix ans.
Heureusement, il existe de nouveaux domaines de la physique qui offrent la promesse d'une consommation d'énergie massivement réduite.
La fin de la loi de Moore
Les humains ont une demande insatiable de puissance de calcul.
Téléphones intelligents, par exemple, sont devenus l'un des appareils les plus importants de notre vie. Nous les utilisons pour accéder aux prévisions météo, tracer le meilleur itinéraire à travers le trafic, et regardez la dernière saison de notre série préférée.
Et nous nous attendons à ce que nos smartphones deviennent encore plus puissants à l'avenir. Nous voulons qu'ils traduisent la langue en temps réel, nous transporter vers de nouveaux endroits via la réalité virtuelle, et connectez-nous à « l'Internet des objets ».
L'informatique requise pour faire de ces fonctionnalités une réalité ne se produit pas réellement dans nos téléphones. Il est plutôt activé par un énorme réseau de tours de téléphonie mobile, Réseaux Wi-Fi et massifs, des centres de données de taille usine appelés « fermes de serveurs ».
Au cours des cinq dernières décennies, nos besoins croissants en informatique ont été largement satisfaits par des améliorations progressives des technologies conventionnelles, technologie de calcul à base de silicium :toujours plus petite, toujours plus rapide, puces toujours plus performantes. Nous appelons ce rétrécissement constant des composants en silicium la « loi de Moore ».
La loi de Moore porte le nom du co-fondateur d'Intel Gordon Moore, qui a observé que :« le nombre de transistors sur une puce double chaque année alors que les coûts sont divisés par deux ».
Mais alors que nous atteignons les limites de la physique de base et de l'économie, La loi de Moore tire à sa fin. On pourrait voir la fin des gains d'efficacité en utilisant le courant, technologie à base de silicium dès 2020.
Notre demande croissante de capacité de calcul doit être satisfaite par des gains d'efficacité de calcul, sinon, la révolution de l'information ralentira à cause de la soif de pouvoir.
Atteindre cela de manière durable signifie trouver une nouvelle technologie qui utilise moins d'énergie en calcul. C'est ce qu'on appelle une solution « au-delà du CMOS », en ce qu'elle nécessite un changement radical par rapport à la technologie CMOS (complémentaire métal-oxyde-semiconducteur) à base de silicium qui a été l'épine dorsale de l'informatique au cours des cinq dernières décennies.
Pourquoi l'informatique consomme-t-elle de l'énergie ?
Le traitement de l'information demande de l'énergie. Lorsque vous utilisez un appareil électronique pour regarder la télévision, écouter de la musique, modéliser la météo ou toute autre tâche nécessitant le traitement d'informations, il y a des millions et des millions de calculs binaires en arrière-plan. Il y a des zéros et des uns inversés, ajoutée, multiplié et divisé à des vitesses incroyables.
Le fait qu'un microprocesseur puisse effectuer ces calculs des milliards de fois par seconde est exactement la raison pour laquelle les ordinateurs ont révolutionné nos vies.
Mais le traitement de l'information n'est pas gratuit. La physique nous dit que chaque fois que nous effectuons une opération - par exemple, additionner deux nombres - nous devons payer un coût énergétique.
Et le coût des calculs n'est pas le seul coût énergétique lié au fonctionnement d'un ordinateur. En réalité, quiconque a déjà utilisé un ordinateur portable en équilibre sur ses jambes attestera que la majeure partie de l'énergie est convertie en chaleur. Cette chaleur provient de la résistance que rencontre l'électricité lorsqu'elle traverse un matériau.
C'est cette énergie gaspillée due à la résistance électrique que les chercheurs espèrent minimiser.
Des avancées récentes suggèrent des solutions
Faire fonctionner un ordinateur consommera toujours de l'énergie, mais nous sommes loin (plusieurs ordres de grandeur) d'ordinateurs aussi performants que le permettent les lois de la physique. Plusieurs avancées récentes nous laissent espérer des solutions entièrement nouvelles à ce problème via de nouveaux matériaux et de nouveaux concepts.
Matériaux très fins
Un pas en avant récent dans la physique et la science des matériaux est de pouvoir construire et contrôler des matériaux qui n'ont qu'un ou quelques atomes d'épaisseur. Lorsqu'un matériau forme une couche aussi mince, et le mouvement des électrons est confiné à cette feuille, il est possible que l'électricité circule sans résistance.
Il existe une gamme de matériaux différents qui montrent cette propriété (ou pourraient la montrer). Nos recherches à l'ARC Center for Future Low-Energy Electronics Technologies (FLEET) se concentrent sur l'étude de ces matériaux.
L'étude des formes
Il y a aussi un saut conceptuel passionnant qui nous aide à comprendre cette propriété de flux d'électricité sans résistance.
Cette idée vient d'une branche des mathématiques appelée « topologie ». La topologie nous dit comment comparer des formes :ce qui les rend identiques et ce qui les rend différentes.
Imaginez une tasse à café en argile molle. Vous pouvez lentement écraser et presser cette forme jusqu'à ce qu'elle ressemble à un beignet. Le trou dans l'anse de la tasse devient le trou dans le beignet, et le reste de la tasse est écrasé pour faire partie du beignet.
La topologie nous dit que beignets et tasses à café sont équivalents car on peut se déformer l'un dans l'autre sans le couper, y faire des trous, ou assembler des morceaux.
Il s'avère que les règles étranges qui régissent la façon dont l'électricité circule dans les couches minces peuvent être comprises en termes de topologie. Cette idée a été au centre du prix Nobel 2016, et il est à l'origine d'une énorme quantité de recherches actuelles en physique et en ingénierie.
Nous voulons tirer parti de ces nouveaux matériaux et connaissances pour développer la prochaine génération d'appareils électroniques à faible consommation d'énergie, qui sera basé sur la science topologique pour permettre à l'électricité de circuler avec une résistance minimale.
Ce travail crée la possibilité d'une poursuite durable de la révolution informatique - sans l'énorme coût énergétique.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.