Artwork

Contenu fourni par Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

Quand la canicule fait tomber Twitter

3:12
 
Partager
 

Manage episode 341231540 series 3383386
Contenu fourni par Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique pourquoi la canicule fait vaciller Twitter, et la logique de redondance.

Outre des incendies géants, la Californie affronte en ce mois de septembre une chaleur extrême. Une chaleur qui vient de priver Twitter d'un de ses principaux centres de données. De quoi fragiliser le service. Car la redondance à aussi ses limites.

Et si une autre panne se produisait à cause de la chaleur, cela pourrait entraîner une panne de Twitter mentionne une note interne de l'entreprise, obtenue par CNN.

Twitter, comme toutes les grandes plateformes de médias sociaux, s'appuie sur des centres de données, c'est à dire des fermes de serveurs et de systèmes de stockage, pour assurer un fonctionnement constant, sur l'ensemble de la planète.

Et le contrôle de la température dans ces centres est essentiel pour éviter que les serveurs ne surchauffent et ne tombent en panne. Mais les systèmes de refroidissement sont très énergivores, d'autant plus énergivores que la température extérieure grimpe.

Et parfois, ils ne suffisent tout simplement pas. Et c'est la panne.

"Le 5 septembre, Twitter a connu la perte de sa région de centre de données de Sacramento - une ville du Nord de la Californie - en raison de conditions météorologiques extrêmes" a annoncé l'entreprise, qui note que cet événement sans précédent a entraîné l'arrêt total des équipements physiques.

Alors oui, le datacenter de Sacramento est redondé. C'est à dire que les informations stockées dans ce datacenter sont aussi présentes dans un autre datacenter. Mais il ne s'agit pas d'une simple sauvegarde de données. Quand on parle de redondance, il s'agit de la capacité à prendre la relève immédiatement en cas de panne. Et cela signifie que le site de redondance est aussi un site de production.

Mais à la suite de la panne de Sacramento, Twitter se trouve désormais dans un "état de non-redondance", explique la société. Concrètement, deux autres datacenter, situés à Atlanta et à Portland sont toujours opérationnels. Mais "si nous perdons l'un de ces centres de données restants, nous risquons de ne pas être en mesure de servir le trafic à tous les utilisateurs" avertit Twitter.

Et ce fonctionnement en mode désormais dégradé a aussi une incidence sur le fonctionnement de la DSI. Car oui, il est à présent en effet interdit de déployer des mises à jour non critiques sur Twitter, et ce jusqu'à ce que l'entreprise puisse rétablir complètement les services de son centre de données de Sacramento.

Cette situation inédite met en évidence la fragilité des plates-formes numériques face à l'évolution des conditions climatiques. Et vu l'importance qu'a pris Twitter dans le monde, pour relayer paroles publiques et privées, de tels risques auraient des conséquences importantes sur la configuration actuelle de la scène médiatique.

Pour économiser sur les coûts de refroidissement, certains acteurs de la tech placent désormais leurs centres de données dans des zones aux climats plus froids. Google, par exemple, a ouvert un centre de données en Finlande en 2011, et Meta a un centre dans le nord de la Suède depuis 2013.

  continue reading

229 episodes

Artwork
iconPartager
 
Manage episode 341231540 series 3383386
Contenu fourni par Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique pourquoi la canicule fait vaciller Twitter, et la logique de redondance.

Outre des incendies géants, la Californie affronte en ce mois de septembre une chaleur extrême. Une chaleur qui vient de priver Twitter d'un de ses principaux centres de données. De quoi fragiliser le service. Car la redondance à aussi ses limites.

Et si une autre panne se produisait à cause de la chaleur, cela pourrait entraîner une panne de Twitter mentionne une note interne de l'entreprise, obtenue par CNN.

Twitter, comme toutes les grandes plateformes de médias sociaux, s'appuie sur des centres de données, c'est à dire des fermes de serveurs et de systèmes de stockage, pour assurer un fonctionnement constant, sur l'ensemble de la planète.

Et le contrôle de la température dans ces centres est essentiel pour éviter que les serveurs ne surchauffent et ne tombent en panne. Mais les systèmes de refroidissement sont très énergivores, d'autant plus énergivores que la température extérieure grimpe.

Et parfois, ils ne suffisent tout simplement pas. Et c'est la panne.

"Le 5 septembre, Twitter a connu la perte de sa région de centre de données de Sacramento - une ville du Nord de la Californie - en raison de conditions météorologiques extrêmes" a annoncé l'entreprise, qui note que cet événement sans précédent a entraîné l'arrêt total des équipements physiques.

Alors oui, le datacenter de Sacramento est redondé. C'est à dire que les informations stockées dans ce datacenter sont aussi présentes dans un autre datacenter. Mais il ne s'agit pas d'une simple sauvegarde de données. Quand on parle de redondance, il s'agit de la capacité à prendre la relève immédiatement en cas de panne. Et cela signifie que le site de redondance est aussi un site de production.

Mais à la suite de la panne de Sacramento, Twitter se trouve désormais dans un "état de non-redondance", explique la société. Concrètement, deux autres datacenter, situés à Atlanta et à Portland sont toujours opérationnels. Mais "si nous perdons l'un de ces centres de données restants, nous risquons de ne pas être en mesure de servir le trafic à tous les utilisateurs" avertit Twitter.

Et ce fonctionnement en mode désormais dégradé a aussi une incidence sur le fonctionnement de la DSI. Car oui, il est à présent en effet interdit de déployer des mises à jour non critiques sur Twitter, et ce jusqu'à ce que l'entreprise puisse rétablir complètement les services de son centre de données de Sacramento.

Cette situation inédite met en évidence la fragilité des plates-formes numériques face à l'évolution des conditions climatiques. Et vu l'importance qu'a pris Twitter dans le monde, pour relayer paroles publiques et privées, de tels risques auraient des conséquences importantes sur la configuration actuelle de la scène médiatique.

Pour économiser sur les coûts de refroidissement, certains acteurs de la tech placent désormais leurs centres de données dans des zones aux climats plus froids. Google, par exemple, a ouvert un centre de données en Finlande en 2011, et Meta a un centre dans le nord de la Suède depuis 2013.

  continue reading

229 episodes

Tous les épisodes

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide