Titre: L'étude State of the Data Center 2010 de Symantec révèle les tendances (12/01/2010 Par zion)
Wemmel, 12 janvier 2010 – Symantec Corp. (Nasdaq : SYMC) publie aujourd’hui les résultats de son étude State of the Data Center 2010, réalisée en novembre 2009 auprès de 1 780 directeurs de centre de traitement de données dans 26 pays.

Au cœur des préoccupations des entreprises se trouvent la multiplication des applications, l’augmentation toujours plus rapide du volume des données (qui double tous les 2 ans) et la complexité accrue de leur gestion. 50% des entreprises considèrent que l’information à manager augmente rapidement, voire très rapidement, générant ainsi des difficultés nouvelles pour atteindre des objectifs d’efficacité dans la gestion des données. Plus d’un tiers des directeurs des systèmes d'information (DSI) interrogés pensent que la productivité de leurs équipes se heurte à un nombre trop important d’applications et à une complexité croissante des data centers. Il n’est alors pas surprenant que 71% d’entre eux considèrent avec attention les technologies de réduction de l’information comme la déduplication. La plupart des entreprises ont d’ailleurs au moins 10 initiatives concernant leur centre de traitement de données considérées comme plutôt ou très importantes, et 50 % d'entre elles prévoient des changements "importants" de celui-ci en 2010.

Les problèmes de ressources humaines sont également importants. La moitié des DSI interrogés pensent que ni leurs équipes dédiées à la sécurité, à la gestion des réseaux ou encore à la virtualisation, ni leur budget ne sont assez importants pour faire face aux défis actuels et à venir. 76 % des entreprises ont le même nombre de postes à pourvoir, voire davantage, cette année.

L’étude montre également des résultats surprenants sur les plans de reprise après activité : si 80% des DSI ont confiance dans leur plan, un tiers d’entre eux ne l’ont pas ré-évalué pendant les 12 derniers mois et celui-ci ne comporte bien souvent pas d’élément composants informatiques importants tels que le cloud computing, les bureaux distants ou les serveurs virtuels.

Autre enseignement de l’étude : les entreprises de 2 000 à 9 999 employés anticipent plus fortement les évolutions majeures en matière de traitement de données et sont plus susceptibles d'adopter des technologies de pointe (cloud computing, déduplication, réplication, virtualisation du stockage, protection continue des données, etc.).

Les chantiers 2010 en matière de centres de données semblent se dessiner, selon l’étude Symantec. Les DSI interrogés considèrent en effet la sécurité contre les menaces comme primordiale (83%), 79% d’entre eux portent leur attention avant tout sur la sauvegarde et la restauration de l’information et 76% ont classé la protection des données comme une priorité.

« Les entreprises restent confrontées à la même complexité inhérente aux centres de traitement de données. Et cette complexité ne fait qu'augmenter avec l'adoption de nouvelles initiatives », explique Vincent Videlaine, responsable de la gestion du stockage chez Symantec. « La standardisation autour de solutions inter plates-formes permettant de gérer les nouvelles technologies et d'automatiser les processus réduira immédiatement les coûts et facilitera leur tâche sur le long terme. »

Recommandations
· Les logiciels prenant en charge les environnements hétérogènes sont particulièrement importants pour les moyennes entreprises très désireuses d'adopter de nouvelles technologies, mais ne disposant généralement pas de l'expertise des grandes entreprises en termes d'effectifs.
· Les entreprises ont intérêt à déployer la déduplication plus près de la source d'information pour éliminer les données redondantes et réduire les coûts liés au stockage et au réseau.
· Les administrateurs de centre de traitement de données doivent gérer le stockage dans des environnements serveur et de stockage hétérogènes pour ne plus avoir à acheter de la capacité supplémentaire. Pour ce faire, ils doivent se tourner vers de nouvelles technologies telles que la gestion des ressources de stockage, le thin provisioning, la déduplication, la virtualisation du stockage, ainsi que la protection continue et la restauration des données. Les entreprises qui optent pour une approche globale de la gestion du stockage maîtrisent l'augmentation des budgets associés et sont souvent mieux en mesure de reporter les achats.
· Tester la capacité de reprise après incident est très utile, mais peut avoir de sérieuses répercussions sur l'activité. Les entreprises doivent donc améliorer les conditions de test en évaluant et en mettant en œuvre des méthodes plus transparentes.
· Elles doivent déployer une plate-forme unifiée pour la protection des machines physiques et virtuelles afin de simplifier la gestion de l'information.

Ressources
· Pour en savoir plus sur l'étude State of the Data Center 2010 de Symantec, reportez-vous au dossier de presse en ligne
· Regarder la vidéo de l'étude State of the Data Center 2010 de Symantec
· Lire l'étude State of the Data Center 2010 de Symantec
· Accéder à la présentation de l'étude State of the Data Center 2010 de Symantec sur Slideshare.net
· Lire l'étude State of the Data Center 2008 de Symantec

Le stockage selon Symantec

Symantec aide les entreprises à protéger et à gérer leur environnement informatique au moyen de solutions de gestion du stockage, d'archivage des messages électroniques, de sauvegarde et de restauration.

À propos de Symantec

Symantec est l'un des principaux fournisseurs mondiaux de solutions de gestion de la sécurité, du stockage et des systèmes permettant aux particuliers et aux entreprises de protéger et de gérer leurs informations. Les logiciels et services de Symantec assurent la sécurité de l'information là où elle est utilisée ou stockée grâce à une protection complète et efficace contre toutes sortes de risques. Pour en savoir plus, rendez-vous sur : www.symantec.com
Retour