Il suffirait d’une trentaine de lignes de code dans la pile réseau du noyau Linux pour réduire la consommation d’énergie des centres de données de 30%, selon l’équipe de recherche de la Cheriton School of Computer Science de l’Université de Waterloo, interrogée par The Register.

Les réseaux Linux sont gérés par des interruptions. Lorsque de nouvelles données arrivent sur le réseau, une interruption système est déclenchée et le cœur de l’unité centrale interrompt sa tâche en cours afin de pouvoir traiter les paquets. Ce système était bien adapté aux environnements dans lesquels plusieurs utilisateurs pouvaient exécuter des tâches simultanément, comme dans le milieu éducatif.

Toutefois, en réduisant le nombre de demandes d’interruption, le processeur peut consacrer plus de temps à l’analyse des chiffres et moins à l’attente de paquets qui ne sont pas prêts à être traités.

Forte de ce constat, l’équipe de recherche est parvenue à un correctif du noyau en y introduisant une interrogation adaptative. Ainsi, pendant les périodes de trafic intense, l’hôte interroge le réseau pour obtenir un nouveau paquet de données dès qu’il a fini de traiter le dernier. Si le trafic diminue et qu’il n’y a pas de nouveaux chiffres à traiter, le système revient à une approche basée sur les interruptions pour économiser de l’énergie automatiquement.

Cette modification a été publiée dans le cadre de la version 6.13 du noyau, désormais accessible au public.

Les premiers tests ont montré que ce correctif pouvait augmenter le débit jusqu’à 45% sans compromettre le temps de latence. La réduction de ressources précédemment gaspillées pour l’interruption des charges lourdes du réseau pourrait réduire la consommation d’énergie de 30%.

Il s’agit là de scénarios optimaux car toutes les applications ne bénéficieront pas d’un tel niveau d’amélioration des performances. Ce sont les applications à fort débit qui devraient en bénéficier le plus. De plus, il faudra un certain temps avant qu’un noyau comportant ces modifications ne soit intégré dans les versions de support à long terme (LTS) privilégiées par les entreprises. Cela ne sera pas non plus d’une grande utilité dans les clusters d’intelligence artificielle. En effet, dans les applications d’intelligence artificielle et de calcul intensif, une technologie appelée accès direct à la mémoire à distance (RDMA) est privilégiée.