Connecting Networks

Articles taggés avec : data centers

A Lyon, la bataille des data centers a commencé

Le lundi, 07 janvier 2019. Posté dans News GrenoblIX News LyonIX News Rezopole

A Lyon, la bataille des data centers a commencé

Ces infrastructures hautement sécurisées se sont multipliées au fil des années. En effet, il y a dix ans la Métropole lyonnaise comptait seulement 1 centre de données contre 14 aujourd’hui. Derrière ce nouveau marché se livre une bataille financière féroce.

 

La preuve en est : DCforData a inauguré son nouveau DC il y a à peine quelques mois dans le 8ᵉ arrondissement de Lyon. Avec une surface de 4 000 m² et déjà deux salles en service, « Rock » est l’un des plus gros de la région Auvergne-Rhône-Alpes. Ses clients sont principalement des collectivités, des grosses entreprises ou encore des sociétés de service du numérique de la région. Mais l’objectif est également d’attirer des firmes nationales voire mondiales.

En effet, d’après Nicolas Pitance, président de DCforData, « Lyon se trouve sur une énorme artère Télécom. Tout le monde connaît le tunnel de Fourvière ou la gare de la Part-Dieu, hé bien il existe également une artère Télécom du nord au sud de l’Europe en direction de Marseille. » Une opinion nuancée par Samuel Triolet, directeur de Rezopole, « Lyon n’est pas dans une position géographique idéale […] Paris, c’est la France, alors on comprend son attrait. A Marseille, de nombreuses fibres trans-méditérranéennes et trans-océaniques partent vers l’Afrique, le Moyen-Orient et l’Asie. Mais à Lyon, il n’y a aucun effet d’aspiration similaire ».

 

Cependant, l’intérêt de stocker ces serveurs localement est bien réel. D’un point de vue pratique tout d’abord, puisqu’une intervention technique sera bien plus facile et rapide si le centre de données est situé à proximité de l’entreprise. Ensuite, cela permet de réduire de façon considérable le temps de latence et le délai de transmission des données dans un univers où la protection des données est de plus en plus importante. Et enfin, la mutualisation des infrastructures permet aux entreprises de réaliser des économies. « C’est important pour les sociétés françaises d’héberger leurs services sur le territoire national car c’est un hébergement souverain : les entreprises restent soumises à une législation française de contrôle des données, c’est-à-dire une législation plus sévère qu’aux États-Unis et leur Patrioct Act » confirme Cyrille Frantz Honegger, directeur des relations régionales de SFR. Ce géant des Télécoms détient le data center « Net Center » implanté à Vénissieux sur une surface de 7 000 m².

 

Toutefois une autre menace pèse sur les entreprises : le hacking et le vol de données.

« Le data center protège des intrusions de personnes dans le bâtiment. Mais ce sont les gens qui exploitent les serveurs qui gèrent la sécurité informatique […] Des tentatives d’intrusions par des hackers, même nous on en bloque en permanence ! » explique Hervé Gilquin, chercheur en mathématiques appliquées et en charge d’un DC à l’Ecole Nationale Supérieure de Lyon. Cette école et d’autres institutions publiques ont quant à elles fait le choix de stocker en interne. Depuis 2017, L’ENS possède son propre centre de données raccordé au réseau Renater, réseau de télécommunication de la recherche, afin de garder au plus proche les données produites. « Les chercheurs font du développement, il faut bricoler quotidiennement sur les lieux, et avec tous les calculs que nous réalisons nos serveurs sont en activité permanente, ce serait trop coûteux pour nous d’externaliser » ajoute Hervé Gilquin.

 

En effet, ces DC et l’exigence qui en découle coûtent très cher. Les propriétaires de ces centres comptent sur des investissements privés et publics même si ces derniers sont assez récents. « La Métropole a mis du temps à comprendre l’intérêt économique d’un data center […] Pendant des années, les acteurs économiques lyonnais étaient persuadés que ça ne créait pas d’emploi. Mais sans data center au niveau local, les boîtes vont d’abord exporter leur gestion informatique, puis la finance, puis le marketing et finalement les ventes » détaille Samuel Triolet. Nicolas Pitance, quant à lui, ironise « Disons que ce n’est pas aussi visible et vendeur qu’un stade de foot ».

Un changement de cap stratégique puisque selon une étude réalisée par Cisco, la capacité de stockage des centres de données devrait encore être multipliée par 2 d’ici 2021. De quoi accroître encore davantage les ambitions des entreprises de ce secteur...

 

 

 

 Lire l'article

 

Source : Médiacités

 

 

 

 

Data centers : coup de chaud sur nos données

Le jeudi, 06 septembre 2018. Posté dans News GrenoblIX News LyonIX News Rezopole

Data centers : coup de chaud sur nos données

Situé au sud de Paris, le campus de Data4 héberge les données de grandes entreprises du CAC 40. Parmi les neuf data centers répartis sur 111 hectares, se trouve le DC05. Ce centre de données de nouvelle génération, en service depuis fin 2017, dispose d’une façade unique, bardée de blocs capables d’aspirer l’oxygène extérieur. « Une fois filtré, cet air à température ambiante sert à refroidir le cœur du bâtiment, ou la température de certains composants peut facilement monter à 60°C. Ce système de free cooling remplace les réserves d’eau glacées et les grosses armoires à froid mécanique utilisées dans les data centers plus anciens » explique Jérôme Totel, directeur du site.

 

Le free cooling est à la mode et tend à s’imposer, essentiellement pour des raisons économiques. En effet, les data centers consomment près de 10 % de l’électricité mondiale. « Et près de la moitié de cette énergie sert à faire fonctionner les systèmes de refroidissement » explique Guilhem Cottet délégué général de France Datacenter. Aujourd’hui, la fourchette de température de l’air envoyé dans les salles de serveurs est bien plus élevée qu’il y a dix ans. Effectivement, les directives internationales préconisent entre 20 et 27°C.

 

Cela n’empêche que « refroidir un data center est une véritable science » résume Jean-Michel Rodriguez, directeur technique chez IBM. Les températures et l’humidité ambiantes des pays d’Europe du Nord assurent naturellement un bon refroidissement tout au long de l’année, ce qui permet d’utiliser plus facilement le free cooling. Ce n’est cependant pas le cas avec un climat plus méditerranéen puisque ce système ne peut fonctionner qu’une partie de l’année. Les hébergeurs comptent donc souvent sur des installations plus modestes comme une simple climatisation couplée à des « allées froides ». « Chaque année compte son lot de nouveautés. On est dans l’optimisation permanente » confirme François Salomon, spécialiste du free cooling chez Schneider.

 

C’est par exemple le cas de Facebook qui a révélé en juin dernier un dispositif associant le free cooling et l’eau ou encore Lenovo qui mise lui sur le liquid cooling. 2CRSI, une entreprise strasbourgeoise, propose quant à elle un système de refroidissement mutualisé. Beaucoup de chercheurs travaillent actuellement sur des algorithmes capables de baisser la consommation des serveurs. Même si l’indicateur d’efficacité énergétique des data centers s’est nettement amélioré ces dernières années, certains experts tirent la sonnette d’alarme. « Les besoins en calcul et en énergie vont augmenter de manière exponentielle. Pour développer l’intelligence artificielle, optimiser le refroidissement ne suffira pas. Si bien qu’il faudra repenser la conception de nos centre de données » avertit Pierre Perrot de CryoConcept.

 

Un constat qui conduit les ingénieurs a développé des technologies diamétralement différentes comme l’immersion. Asperitas immerge désormais ses serveurs dans de l’huile. « C’est un liquide non conducteur et non corrosif qui absorbe jusqu’à 1 500 fois plus de chaleur que l’air » précise Pierre Batsch, chargé du développement de la société en France. Ainsi il n’y a plus de besoin de climatisations, de faux plafonds, d’allées froides, etc. Alors qu’Alibaba a déjà annoncé un projet similaire pour une partie de ses serveurs, d’autres acteurs comme les usines de « minage de cryptomonnaies » ou du monde la finance se montrent également intéressés par cette solution.

 

Microsoft a décidé lui de plonger une partie de ses infrastructures dans l’océan. « L’eau est 800 fois plus dense que l’air. Lorsque vous la touchez, vous êtes en contact avec beaucoup de molécules, ce qui veut dire que vous pouvez transférer de la chaleur plus rapidement et plus efficacement » explique Ben Cutler, chef de ce projet chez Microsoft. Mais cette initiative suscite quelques critiques « La chaleur dégagée aura-t-elle un impact sur l’écosystème marin ? Ne vaudrait-il pas mieux la réutiliser ? » persifle un expert. Des remarques qui ne vont pas décourager Microsoft qui n’a donc pas fini de faire des vagues.

 

 

Lire l'article

 

Source : L'Express

 

 

 

 

 

FaLang translation system by Faboba