Connecting Networks

Articles taggés avec : centre de données

Une page se tourne pour le Cloud souverain français

Le mercredi, 07 août 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Une page se tourne pour le Cloud souverain français

Le Cloudwatt, service d’hébergement de données en ligne d’Orange, sera débranché le 1er février prochain. Lancée en 2012, il s’agissait de l’une des deux têtes du Cloud souverain à la française cofinancée à perte par l’argent public. Bercy appelant de nouveau à la création de centres de données sécurisés pour héberger les données sensibles de l’administration et des entreprises, cet échec pourrait servir de leçon

 

À l’origine de ce projet, baptisé Andromède, la France souhaitait investir 150 millions d’euros dans un service de serveurs mutualisés pouvant réduire les coûts des ministères et des entreprises. Mais voilà, les groupes de technologie français appelés à l’aide n’ont pas réussi à s’entendre et ont donc partagé l’enveloppe.

D’un côté, Cloudwatt a été créé par Orange et Thales en ajoutant 150 millions d’euros à la somme prévue par l’État. De l’autre côté, Numergy a été lancé par SFR et Bull avec le même investissement. Cependant aucun d’entre eux n’a su trouver de clients. Et deux ans après leur démarrage, Cloudwatt revendiquait seulement 2 millions de recettes. Même si Numergy s’en sortait mieux avec 6 millions facturés, il s’agit de miettes face à Amazon, Microsoft et IBM.

Bercy arrête les frais, quelques mois plus tard, en assurant n’avoir dépensé que la moitié des sommes promis. Orange et SFR rachètent alors les parts de l’État, de Thales pour l’un, de Bull pour l’autre. Numergy et Cloudwatt, devenues alors de simples marques, vivotaient depuis au sein des offres conçues pour les grandes entreprises par les deux opérateurs Télécoms.

 

Aujourd’hui, la domination sur le marché de l’informatique en ligne des acteurs américains nourrit toujours des craintes sur l’intégrité des données stratégiques. Un récent rapport du député Raphaël Gauvain critique le Cloud Act, une loi extraterritoriale américaine rappelant le Patriot Act et des programmes d’espionnage.

Le Gouvernement devrait donc signer un contrat stratégique de filière visant à faire émerger un écosystème du « Cloud de confiance » à l’automne. Être Français ne suffira pas pour en être et certaines technologies américaines ou chinoises utilisées dans des centres de données français seront difficilement compatibles.

« Cette fois, on ne présumera pas de la nationalité des acteurs mais de leurs capacités à garantir l’intégrité des données au regard de nos lois et de l’autonomie stratégique sur nos infrastructures essentielles et nos données », note Jean-Noël de Galzain, le président d'Hexatrust siégeant au comité stratégique de filière. De plus, l'Etat devrait s’engager à jouer son rôle d’acheteur.

 

 

 

 

 

 Lire l'article

 

Source : Les Echos

 

 

 

 

Canicule : pourquoi les DC français tiennent le coup

Le jeudi, 01 août 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Canicule : pourquoi les DC français tiennent le coup

Les épisodes de chaleur ne sont pas pris à la légère par les opérateurs de datacenters. En France, « nous sommes passés de 40 degrés à 46 degrés en quelques années. Nous avons rejoint les spécifications de l’Espagne » dit Marie Chabanon, directrice technique de DATA4 groupe.

 

Afin de contrer tout coup de chaud, la résistance des datacenters aux températures a augmenté « La grande crainte, c’est l’effet domino […] Si tout ou partie de l’infrastructure de froid a des problèmes, cela joue sur le reste de l’équipement. Et si le groupe froid s’arrête, c’est le pire qui puisse nous arriver avec la panne complète d’électricité » ajoute le Directeur Général d’Interxion, Fabrice Coquio. Un risque également lié à la qualité de la distribution électrique de RTE ou Enedis. « Nous devons anticiper un risque de perte électrique ou d’incident électrique » explique Marie Chabanon.

 

Mais les opérateurs de datacenters ont une botte secrète pour lutter contre cet effet domino. « Les systèmes électriques des datacenters sont construits pour être opérationnels a 100 % de la charge. Or ce n’est jamais le cas. La conséquence, c’est qu’en cas de sollicitation, comme un besoin de froid plus fort, nous avons de la puissance non allouée que nous pouvons utiliser » explique Fabien Gautier, d'Equinix. On appelle cela la redondance de capacité.

 

D’autant plus que la densification de puissance de calcul par unité d’espace ces dernières années, avec la démocratisation de la virtualisation, provoque plus de consommation et plus de chaleur. « Avec des baies de 14 ou 15 kvA on occasionne des points chauds, plus sensibles à des périodes de canicule » détaille Fabien Gautier. Le travail d’urbanisation de l’architecture IT déployée dans les salles est donc essentiel. « Notre travail c’est donc l’urbanisation des salles. Si elles ont été remplies à la volée, ça peut poser problème » ajoute-t-il.

Cela passe entre autres par de la répartition de charge. « Nos datacenters sont désignés avec des redondances et un taux de charge de 50 %. Les machines de backup seront utilisées pour assurer de la puissance complémentaire » en cas de canicule indique Marie Chabanon. Il faut néanmoins l’anticiper. « Nous devons nous assurer que les systèmes de backup sont prêts a être opérationnels, et ce par des actions de maintenance et de contrôle sur les équipements de sauvegarde ».

 

La protection des datacenters contre la chaleur passe aussi par la mise en place de systèmes curatifs. « Nous avons installé des systèmes de projection d’eau pour arroser les équipements de toit avec de l’eau pas trop froide » précise Fabrice Coquio.

Et pour parer à toute éventualité en début de soirée, le planning des techniciens présents sur le site a été modifié. Il est également nécessaire de prévenir les clients afin qu’ils fassent attention.

 

Les progrès récents en matière de résistance des matériels informatiques et de conception des datacenters permettent de revoir à la hausse les températures dans les salles de stockage des serveurs. « L’idée, c’est que plus le PUE (Power Usage Effectiveness) est bas plus il est performant. Il y a dix ans on faisait des datacenters où l’on arrivait difficilement à un PUE de 1,6. Aujourd’hui on est à 1,2 et on se rapproche de 1. Cela représente 20 % de gains en jouant sur la température et la performance énergétique des nouveaux équipements » indique Marie Chabanon. Résultat : le système de refroidissement se concentre désormais sur les machines avec de l’air pulsé. Il n’y a plus besoin de réfrigérer des salles entières.

« Nous constatons une évolution du design sur la température en salle selon les préconisations de l'Ashrae (American Society of Heating and Ventilating Engineers). L’idée est de bien fonctionner avec des plages de températures bien plus haute. Nous sommes passés de plages de 20 à 22 degrés à 18 à 27 degrés » complète-t-elle. Depuis 2011, ces normes ont été relevées : elles recommandent de souffler en face avant à 26 degrés sur les équipements en salle. « Le niveau d’hygrométrie a aussi été modifié […] En 2008, il était entre 40 et 60 %. Il est désormais à 70 % » précise Fabrice Coquio.

 

De quoi limiter les dépenses côté refroidissement sans pour autant jouer sur la résistance des installations. Un point critique en période de canicule.

 

 

 

 

 Lire l'article

 

Source : ZDNet

 

 

 

 

Le Continuum des Data Centers

Le mardi, 25 juin 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Le Continuum des Data Centers

La tendance visionnaire des années 2010 positionnait massivement les surfaces des centres de données dans des DC Hyperscale, idéalement situés dans des zones proche du cercle polaire. A l’époque seule la question des risques systémiques semblait pouvoir ralentir cette évolution.

 

Mais aujourd’hui la réalité n’est plus du tout la même. En effet, un modèle de continuum est venu remplacé cette vision d’hyper-concentration des surfaces, qui peut se résumer en 6 niveaux.

  • Les Data Centers Hyperscales conservent toujours leur attrait pour des stockages de masse et des traitements non transactionnels. Leur objectif est d’amener le meilleur coût de production, en positionnant une grande mutualisation de surface là où le foncier et l’énergie sont bon marché.
  • Les Data Centers Hubs sont principalement positionnés à Frankfort, Londres, Amsterdam et Paris en Europe. Ces zones concentrent des centres de données de grande taille et bénéficient d’une interconnexion rapide entre eux. Ces espaces sur-attirent les opérateurs car l’interconnexion prime sur le potentiel du marché local.
  • Les Data Centers Régionaux, localisés dans toutes les autres villes significatives, adressent cette fois-ci le potentiel économique local, avec des acteurs de Cloud pour les entreprises ou des hébergeurs agissant en premier niveau d’accès vers les DC Hubs.
  • Les Data Centers « 5G » vont s’installer au plus près des zones urbaines afin de répondre au besoin de latence requis par les usages des populations.
  • Les micro-Data Centers vont amener une faible latence lors d’une concentration importante d’usage (un stade, une usine).
  • Les pico-Data Centers vont adresser l’usage du particulier, amenant ainsi une latence minimum et surtout une gestion des données privées.

 

Malgré des tailles différentes, les trois premiers niveaux de ces centres de données répondent aux mêmes principes de conception. A ceci près que les Data Centers Hyperscales sont souvent mono-utilisateurs. Il leur est donc possible de positionner des choix de conception plus restrictifs que dans les colocations.

Les trois derniers niveaux appartiennent à l’univers du Edge et visent à positionner l’espace des DC au plus près des usages. En revanche, ces niveaux répondent à des principes de conception différents.

L’installation se fera de manière industrielle pour les micros et pico-Data Centers. Les problématiques principales seront plus liées à la protection physique ou à la maintenance / exploitation de ces infrastructures.

Les Data Centers « 5G » amène une nouvelle donne. En effet, ils ont tout du « petit » DC mais doivent être implémentés dans des environnements complexes. Ils subissent de nombreuses contraintes de sécurité et de respect des normes étant positionnés dans des zones urbaines. Cependant, la plus grande complexité réside dans le manque de place pour déployer les lots techniques.

 

 

 

 Lire l'article

 

Source : Global Security Mag

 

 

 

 

Concevoir aujourd’hui des DC pour demain

Le mercredi, 27 février 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Concevoir aujourd’hui des DC pour demain

Comment parvenir à construire des infrastructures informatiques de manière durable et pérenne pour les 20 prochaines années ? Quels sont les éléments importants à prendre en compte lors de la phase de conception ?

 

Même si en apparence construire des centres de données peut paraître assez facile, il s’agit d’un secteur évoluant rapidement. En effet, aujourd’hui les salles se densifient, les serveurs consomment de plus en plus d’énergie et sont plus lourds. Des concepts de modularité bousculent le marché tous les mois, les gammes évoluent vite pour répondre davantage aux besoins des utilisateurs…

 

C’est pourquoi l’adaptabilité et la modularité doivent faire partie des solutions à ces problématiques dès les phases de conception. Comme par exemples, choisir des solutions de refroidissement et électriques modulables, augmenter la puissance et monter en charge lors des maintenances, designer les gros équipements en les surdimensionnant.

Il peut également être très utile de mettre en place de nouvelles méthodes de travail type Agile. Il est donc primordial d’être flexible et de s’adapter à ces changements qui peuvent affecter le projet durablement.

La modularité est aussi un point indispensable lors de la conception notamment si l’on choisit un lieu atypique pour implanter son centre de données. Cependant, des aspects légaux ou réglementaires peuvent aller à l’encontre de cette modularité. Il faut donc aborder au plus tôt ces problématiques qui ont souvent des délais incompressibles…

 

 

 Lire l'article

 

Source : Le Monde Informatique

 

 

 

 

Développement des DC français

Le mercredi, 20 février 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Développement des DC français

Interviewé par LeMagIT, Olivier Micheli constate que les centres de données français séduisent enfin les acteurs internationaux du Cloud et qu’ils se développent géographiquement afin de réduire les latences.

 

Exerçant à la fois les fonctions de PDG de Data4 Group et de Président de l’association France Datacenter, Olivier Micheli estime à 200 le nombre de grands datacenters en France pouvant atteindre jusqu’à 10 000 m². La capitale réunissant le plus grand nombre car Paris est un nœud d’interconnexion européen.

On dénombre entre 3000 et 5000 salles informatiques privées de taille et puissance variables à travers le pays.

Au-delà du souhait des entreprises d’avoir la main sur leurs équipements, l’importance d’une latence toujours plus faible pèse de plus en plus dans les activités économiques locales et le développement des villes intelligentes.

Selon Olivier Micheli, le marché tend vers des centres de données dont la taille est proportionnelle à celle de l’activité économique à proximité.

 

Après une période creuse entre 2012 et 2015, le marché des datacenters français a rattrapé son retard. La France se place aujourd’hui en quatrième position en Europe ex-aequo avec l’Irlande. Plusieurs raisons à cela : l’opportunité pour les entreprises internationales de s’adresser à 67 millions d’individus depuis des ressources IT hébergées localement, l’importance géostratégique de Marseille et aussi les efforts du gouvernement pour créer des conditions favorables au développement de ces datacenters.

Ce qui permet enfin à l’Hexagone de s’aligner sur le Royaume-Uni, l’Allemagne ou encore les Pays-Bas.

 

Les clients de ces centres de données sont à 70 % des acteurs du Cloud public tels que Amazon, AWS mais également des éditeurs comme Salesforce. Les entreprises utilisatrices souhaitent quant à elles beaucoup d’accompagnement.

 

Le premier enjeu des datacenters est, selon Olivier Micheli, la connectivité. En effet, les entreprises souhaitent désormais bénéficier d’une salle informatique délocalisée afin de redistribuer ces données vers les usagers et les acteurs d’Internet.

Le second enjeu est celui du bâtiment intelligent et d’atteindre 100 % d’énergie renouvelable en utilisant par exemple le Free Cooling.

 

 

 

 Lire l'article

 

Source : LeMagIT

 

 

 

 

Data centers : coup de chaud sur nos données

Le jeudi, 06 septembre 2018. Posté dans News Rezopole News LyonIX News GrenoblIX

Data centers : coup de chaud sur nos données

Situé au sud de Paris, le campus de Data4 héberge les données de grandes entreprises du CAC 40. Parmi les neuf data centers répartis sur 111 hectares, se trouve le DC05. Ce centre de données de nouvelle génération, en service depuis fin 2017, dispose d’une façade unique, bardée de blocs capables d’aspirer l’oxygène extérieur. « Une fois filtré, cet air à température ambiante sert à refroidir le cœur du bâtiment, ou la température de certains composants peut facilement monter à 60°C. Ce système de free cooling remplace les réserves d’eau glacées et les grosses armoires à froid mécanique utilisées dans les data centers plus anciens » explique Jérôme Totel, directeur du site.

 

Le free cooling est à la mode et tend à s’imposer, essentiellement pour des raisons économiques. En effet, les data centers consomment près de 10 % de l’électricité mondiale. « Et près de la moitié de cette énergie sert à faire fonctionner les systèmes de refroidissement » explique Guilhem Cottet délégué général de France Datacenter. Aujourd’hui, la fourchette de température de l’air envoyé dans les salles de serveurs est bien plus élevée qu’il y a dix ans. Effectivement, les directives internationales préconisent entre 20 et 27°C.

 

Cela n’empêche que « refroidir un data center est une véritable science » résume Jean-Michel Rodriguez, directeur technique chez IBM. Les températures et l’humidité ambiantes des pays d’Europe du Nord assurent naturellement un bon refroidissement tout au long de l’année, ce qui permet d’utiliser plus facilement le free cooling. Ce n’est cependant pas le cas avec un climat plus méditerranéen puisque ce système ne peut fonctionner qu’une partie de l’année. Les hébergeurs comptent donc souvent sur des installations plus modestes comme une simple climatisation couplée à des « allées froides ». « Chaque année compte son lot de nouveautés. On est dans l’optimisation permanente » confirme François Salomon, spécialiste du free cooling chez Schneider.

 

C’est par exemple le cas de Facebook qui a révélé en juin dernier un dispositif associant le free cooling et l’eau ou encore Lenovo qui mise lui sur le liquid cooling. 2CRSI, une entreprise strasbourgeoise, propose quant à elle un système de refroidissement mutualisé. Beaucoup de chercheurs travaillent actuellement sur des algorithmes capables de baisser la consommation des serveurs. Même si l’indicateur d’efficacité énergétique des data centers s’est nettement amélioré ces dernières années, certains experts tirent la sonnette d’alarme. « Les besoins en calcul et en énergie vont augmenter de manière exponentielle. Pour développer l’intelligence artificielle, optimiser le refroidissement ne suffira pas. Si bien qu’il faudra repenser la conception de nos centre de données » avertit Pierre Perrot de CryoConcept.

 

Un constat qui conduit les ingénieurs a développé des technologies diamétralement différentes comme l’immersion. Asperitas immerge désormais ses serveurs dans de l’huile. « C’est un liquide non conducteur et non corrosif qui absorbe jusqu’à 1 500 fois plus de chaleur que l’air » précise Pierre Batsch, chargé du développement de la société en France. Ainsi il n’y a plus de besoin de climatisations, de faux plafonds, d’allées froides, etc. Alors qu’Alibaba a déjà annoncé un projet similaire pour une partie de ses serveurs, d’autres acteurs comme les usines de « minage de cryptomonnaies » ou du monde la finance se montrent également intéressés par cette solution.

 

Microsoft a décidé lui de plonger une partie de ses infrastructures dans l’océan. « L’eau est 800 fois plus dense que l’air. Lorsque vous la touchez, vous êtes en contact avec beaucoup de molécules, ce qui veut dire que vous pouvez transférer de la chaleur plus rapidement et plus efficacement » explique Ben Cutler, chef de ce projet chez Microsoft. Mais cette initiative suscite quelques critiques « La chaleur dégagée aura-t-elle un impact sur l’écosystème marin ? Ne vaudrait-il pas mieux la réutiliser ? » persifle un expert. Des remarques qui ne vont pas décourager Microsoft qui n’a donc pas fini de faire des vagues.

 

 

Lire l'article

 

Source : L'Express

 

 

 

 

 

FaLang translation system by Faboba