Les mythes de la dématérialisation, épisode 1 : les datacenters (Partie 1)
S01:E44

Les mythes de la dématérialisation, épisode 1 : les datacenters (Partie 1)

Episode description

L'interview

  • Quelle est l'histoire des Datacenter ?
    • 3 principales origines aux Datacenters, nécessité de calcul de masse, avec l'informatique, développement des institutions étatiques, histoire du passage de la mécanographie (cartes perforées) à l'informatique. SI on prends le cours de l'histoire au 19e sècle, On pert des calculatrices, ces grands hangars où des nombreuses personnes (souvent des femmes noires pour des raisons de coût du travail) travaillent.
    • Le premier point de l'histoire des centres de calcul, c'est le passage à l'échelle, qui ammène déjà des incidents du même type que ceux des DCs modernes. Quelques DCs modernes héritent des infrastructures anciennent même si c'est une minorité.
    • Le deuxième point, c'est le passage de la mécanographie à celui de l'electronique, de plus en plus de plus petites machines. Une concentration de plus en plus grande des machines. Changement d'échelle de l'informatique, qui crée un système très compliqué à maintenir, les salles informatiques deviennent de plus en plus intenables et peu sécurisées. Les salles informatiques atteignent des limites liées à la taille limite d'un service informatique "artisanal".
    • Le troisième points, c'est le développement du Cloud, qui aboutit à l'utilisation de Datacenters de d'autres personnes.
  • Que recouvre le mot Datacenters ?
    • Il existe différents types de Datacenters.
      • Datacenters propriétaires, développés pour des besoins internes par des grosses entreprises.
      • Datacenters de colocation. Vente d'espaces de colocation, où l'on peut mettre une machine, ils vendent de la sécurité d'infrastructure énergétique et climatisée. Très peu d'informatique dans un Datacenter relativement au reste de l'appareillage
    • Ce qu'un datacenter vend, avant tout, c'est de la sécurité
      • Une alimentation stable
      • Une connectivité stable
      • Une protection contre les incendie et autres risques naturels
      • Un refroidissement stable
  • Les facteurs humains, l'ennemi du Data Center ?
    • L'internet crée du travail très segmenté, pas une disparition du travail
    • Un DC vend de la sécurité à tous les niveaux, des machines très sécurisées. Ils vendent des humains capables de gérer la question de la sécurité. Le spectre de la panne est omniprésent. Il y a des humains tout le temps et partout, et le discours, c'es qu'il n'y a pas d'humains. Le discours systématiquement présent, c'est que le problème vient des humains. Le problème des DCs, ce serait le fameux PFH (putain de facteur humain).
    • Les chiffres du "PFH" varient d'un DC à l'autre, d'une présentation à l'autre, ce qui montre la faiblesse de cet argument.. Dans les faits, les êtres humains passent leur temps à gérer le fait que tout doit être fonctionnel, obligés de s'occuper de micro-pannes. On a des êtres humains en permanence en train de gérer des pannes. On a un mythe du fait que tout serait fonctionnel., la technique fonctionnerait parfaitement, or les infrastructures sont tout sauf parfaites, peu fonctionnels. La question de savoir combien de pannes sont dues aux êtres humains est illusoire et relève de la récursivité sécuritaire.
    • Qu'est-ce que la récursivité sécuritaire ? C'est le fait de compenser les imperfections de la technique par un autre système technique, lui-même imparfait. Pour pallier ces imperfections, on peut créer un système, lui-même imparfait, etc..
    • Exemple des bugs chez OVH, 2h de downtime sur l'infrastructure à Roubaix. La garantie du fait que le système fonctionne, ce sont bien les humains.
    • En fait 100% des pannes et 100% du fonctionnement est un facteur humain. Des humains qui se trompent. La question de l'attribution de la faute est complexe, car on a des systèmes structurellement opaque, et de temps en temps, il faut des responsables de non fonctionnement, créer une enquête pour trouver qui est responsable de la panne.
  • Questionnements écologiques autour des DCs
    • L'impact environnemental du numérique est colossal. Mis en lumière par les questionnements du du shift project, il pose des questions de communication. L'indice majeur sur la soutenabilité des DCs, le PUE, acronyme de power usage effectiveness. est supposé mesurer l'efficacité de l'utilisation énergétique. Ratio entre la quantité d'energie totale divisée par la consommation des machines. Proposé comme un indice, c'est en fait moyen de communiquer sur des efforts environnementaux hypothétique. Un DC avec un PUE de 1, le graal en terme de PUE, consomme toujours énormément pour ses machines. De plus, l'indicateur ne renseigne pas sur le cycle de vie complet du DC.
    • Question de l'effet rebond, qu'est-ce que l'effet rebond ? C'est le phénomène par lequel un service dont on cherche à optimiser la consommation (au sens large) afin de limiter son impact enfironnemental, devient massivement utilisé et augmente son impact, contrairement à l'effet escompté.
  • Partie 2 à suivre le 18 décembre.

La musique

Go de par Hatom

Page sur auboutdufil.com : https://www.auboutdufil.com/index.php?id=589

mp3 : https://ia801409.us.archive.org/18/items/hatom-go/HaTom-Go.mp3

Licence : https://creativecommons.org/licenses/by/3.0/deed.fr

Le générique

Near death experience par Marker beacon (album Dead frequencies)

http://www.markerbeacon.org/?page_id=71

Licence CC BY

Les liens

L'article évoqué en introduction : https://www.cairn.info/revue-zilsel-2018-1-page-19.htm

L'article évoqué par Guillaume Carnino : https://halshs.archives-ouvertes.fr/halshs-02625899/document

https://www.technologos.fr/text/assises_2017/index.php?fic=guillaume_carnino.txt

https://www.lebigdata.fr/data-centers-environnement

Enregistrement

Émission enregistrée le 23 novembre 2020