Thèse de doctorat. Alessandro Ferreira Leite. A User-Centered and Autonomic Multi-Cloud Architecture for High Performance Computing Applications
|
|
|
- Adrien Roussy
- il y a 10 ans
- Total affichages :
Transcription
1 Université Paris-Sud Ecole Doctorale d Informatique de Paris-Sud INRIA SACLAY ÎLE-DE-FRANCE/LABORATORIE DE RECHERCHE EN INFORMATIQUE Discipline : Informatique En Cotutelle Internationale avec Université de Brasília, Brésil Thèse de doctorat Synthèse en Français Soutenue le 2 décembre 2014 par Alessandro Ferreira Leite A User-Centered and Autonomic Multi-Cloud Architecture for High Performance Computing Applications Composition du jury : Rapporteurs : M Christophe CÉRIN Professeur (Université Paris 13) M Jean-Louis PAZAT Professeur (INSA Rennes) Examinateurs : Mme Christine FROIDEVAUX Professeur (Université Paris-Sud 11) Mme Célia GHEDINI RALHA Professeur (Université de Brasília) Mme Christine MORIN Directrice de Recherche (INRIA, IRISA) Directrices de thèse : Mme Christine EISENBEIS Directrice de Recherche (INRIA, LRI, UPSud) Mme Alba MELO Professeur (Université de Brasília) Co-directeur de thèse : M Claude TADONKI Chargé de Recherche (Mines ParisTech)
2
3 1 Introduction et Motivation Le cloud computing (l informatique dans le nuage) est un paradigme récent pour la mise à disposition d infrastructure informatique, de plate-forme et/ou de logiciels. Il fournit des ressources informatiques au travers d une infrastructure virtualisée, permettant aux applications, capacités informatiques, stockage de données et aux ressources de réseau d être approvisionnés, et gérés à distance sur des réseaux privés ou sur l Internet [16, 37]. Ainsi, le cloud computing améliore la collaboration, l agilité, l évolutivité, et la disponibilité pour les utilisateurs finaux et les entreprises. En outre, les clouds (nuages) offrent des caractéristiques différentes, permettant le partage des ressources (par ex., infrastructure, plate-forme et/ou logiciel), entre les fournisseurs de (technologie de) cloud et les utilisateurs de (technologie) cloud dans un modèle de répartition (pay-as-you-go). Ces propriétés ont été utilisées à de nombreuses fins, tel que (a) pour diminuer le coût de possession, (b) pour augmenter la capacité des infrastructures dédiées, qui arrivent à court de ressources, (c) pour réduire la consommation électrique et/ou l empreinte carbone, et (d) pour répondre efficacement aux changements dans la demande. Cependant, l accès à ces fonctionnalités dépend des niveaux d abstraction (c est-à-dire, la couche de cloud). Les niveaux d abstraction sont généralement définis comme étant : infrastructure-as-a-service (IaaS infrastructure en tant que service), plate-forme-as-a-service (PaaS plate-forme en tant que service), et software-as-a-service (SaaS logiciel en tant que service). Alors que l IaaS offre un accès de bas niveau à l infrastructure, y compris les machines virtuelles, le stockage, et le réseau, la PaaS ajoute une couche au-dessus de l infrastructure IaaS, offrant ainsi des primitives de haut niveau pour aider les utilisateurs à développer des applications cloud d origine. En outre, elle fournit également des services pour le déploiement, le contrôle, et l extension d applications. En conclusion, le SaaS prévoit des applications, et gère l ensemble de l environnement informatique. Dans ce contexte, les utilisateurs intéressés par le cloud, sont confrontés au problème de choix des services de bas niveau pour exécuter des applications ordinaires, donc, en étant responsables de la gestion des ressources informatiques (c est-à-dire, les machines virtuelles), ou en choisissant des services de haut niveau qui nécessitent le développement d applications cloud d origine, pour déléguer la gestion de l environnement informatique à des fournisseurs de cloud. Ces deux options existent, parce que les clouds ciblent souvent les applications Web, alors que les applications utilisateurs sont généralement des parameter sweeps de traitement par lots. C est pourquoi, le déploiement et l exécution d une application dans le cloud, sont toujours des tâches complexes [21, 46]. Par exemple, pour exécuter une application utilisant l infrastructure cloud, les utilisateurs doivent d abord sélectionner une machine virtuelle (VM), configurer toutes les applications nécessaires, transférer toutes les données, et pour finir, exécuter leurs applications. L apprentissage de ce processus peut nécessiter des jours ou même des semaines entières, si les utilisateurs connaissent mal l administration de système, sans aucune garantie de répondre à leurs objectifs. Par conséquent, ceci peut représenter un obstacle à l utilisation d une infrastructure cloud. En outre, avec le nombre de fournisseurs de cloud en pleine expansion, les utilisateurs se voient confronter au défi de sélectionner un cloud et/ou des ressources (par ex., VM) appropriées, pour exécuter leurs applications. Ceci est une tâche difficile, parce que les clouds proposent une vaste gamme de ressources. En outre, ces ressources sont
4 généralement adaptées à des fins différentes, et elles sont souvent soumises à plusieurs contraintes. Puisque les clouds peuvent tomber en panne, ou connaître des limites en matière d évolutivité, un scénario de fédération de clouds doit être envisagé, en augmentant le travail et les difficultés de l utilisation des infrastructures cloud. Certaines questions qui se posent dans ce contexte sont : (a) quelles sont les ressources (par ex., VMs) qui sont adaptées pour exécuter une application donnée ; (b) comment éviter un sous- et/ou un sur-approvisionnement, en tenant compte des objectifs à la fois, des caractéristiques et des utilisateurs des ressources (ex., performance à moindre coût), sans être lié à un fournisseur de cloud ; et (c) comment un spécialiste non-cloud peut-il maximiser l usage de l infrastructure cloud, sans avoir à restructurer leurs applications à l environnement cloud? Bien que certains efforts aient été faits pour réduire la complexité du cloud, la plupart d entre eux ciblent les développeurs de logiciels, et ne sont pas simples pour des utilisateurs inexpérimentés [21]. Par ailleurs, les services cloud s exécutent généralement dans des centres de données à grande échelle, et exigent une quantité énorme d électricité. De nos jours, le coût de l électricité peut être considéré comme l une des principales préoccupations des centres de données, parce qu il n est pas toujours en adéquation avec la capacité des centres de données, et qu il est aussi associé à une importante quantité d émission de carbone (CO2). Compte tenu de l efficacité énergétique du centre de données [14, 23, 24], les projections montrent que la quantité totale de l électricité consommée par les centres de données dans les prochaines années sera extrêmement élevée, et revient à dépasser l industrie des compagnies aériennes, en termes d émissions de carbone. En outre, en fonction de l efficacité de l infrastructure du centre de données, le nombre de watts nécessaires, peut être de trois à trente fois plus élevé que le nombre de watts requis pour des calculs [41]. Et, cela a une forte incidence sur les coûts totaux d exploitation [3], qui peuvent dépasser les 60 % de la charge de pointe. Néanmoins, les programmes d économie d énergie qui se traduisent par une trop importante dégradation de la performance du système, ou par des violations des paramètres de l accord sur les niveaux de service (SLA), finiraient par obliger les utilisateurs à changer pour un autre fournisseur de cloud. Ainsi, il est nécessaire d atteindre un équilibre entre les économies d énergie, et les frais encourus par ces économies dans l exécution des applications. Dans ce contexte, nous préconisons l usage de la fédération de cloud, pour répartir en douceur, la charge de travail des services au travers des différents clouds, en fonction de certains objectifs (par ex., pour réduire la consommation d énergie), sans subir trop de dégradation des exigences en matière de performance, définies entre les fournisseurs et les utilisateurs de cloud. En outre, nous préconisons une approche déclarative par laquelle les utilisateurs décrivent leurs applications et objectifs, et les soumettent à un système qui, automatiquement : (a) dispose des ressources ; (b) met en place l ensemble de l environnement informatique ; (c) tente de répondre aux exigences des utilisateurs, telles que la performance pour réduire les coûts ; et (d) traite les échecs dans un scénario fédéré de cloud. 2
5 2 Objectifs En suivant une stratégie axée sur les objectifs, cette thèse vise à étudier l usage des clouds fédérés, compte tenu des différents points de vue. Elle considère le point de vue des : (a) fournisseurs de cloud, (b) développeurs expérimentés de logiciels, (c) utilisateurs ordinaires, et (d) les profils de plusieurs utilisateurs (c est-à-dire, administrateurs système, utilisateurs de cloud qualifiés ou pas, et développeurs de logiciels). Pour atteindre le principal objectif, cette thèse examinera les quatre objectifs intermédiaires qui suivent. 1. Réduction de la consommation électrique: les services cloud s exécutent généralement dans de grands centres de données, qui contiennent normalement une importante quantité de nœuds de calcul. Ainsi, le coût de fonctionnement de ces services peut avoir un impact majeur sur le total des coûts opérationnels [3], en raison de la quantité d énergie demandée par de tels services. Dans ce scénario, nous visons à étudier l utilisation d un environnement fédéré cloud, pour aider les fournisseurs de cloud à réduire la consommation électrique des services, sans grande répercussion sur les exigences de qualité du service (QoS). 2. Exécution d une application énorme à coût réduit : la plupart des clouds fournissent certaines ressources à faibles coûts financiers. Normalement, ces ressources ont une capacité informatique limitée, et une petite mémoire RAM. En outre, ils sont hétérogènes eu égard à la couche de cloud (c est-à-dire, PaaS et IaaS), nécessitant différentes stratégies pour les utiliser et s y connecter. Ainsi, nous voulons examiner si une exécution fédérée, utilisant exclusivement les ressources les moins chères de chaque cloud, peut atteindre un temps d exécution acceptable. 3. Réduction du temps d exécution des applications qui ignorent le cloud : certaines applications utilisateurs ont été conçues pour exécuter une ressource dédiée unique, avec des performances presque prévisibles. Par conséquent, ces applications ne correspondent pas au modèle de cloud, dans lequel les défaillances des ressources, et les variations en matière de performance, font partie du fonctionnement normal. Cependant, la plupart de ces applications ont des parties qui peuvent être exécutées en parallèle. Autrement dit, ces applications comprennent des parties de tâches indépendantes. Dans ce scénario, nous visons à étudier l exécution des applications qui ignorent le cloud, en tenant compte du coût financier, et en essayant de réduire leurs temps d exécution sans l intervention des utilisateurs. 4. Automatisation des tâches de sélection, et configuration des ressources des clouds, pour différents types d utilisateurs : de nos jours, les utilisateurs intéressés par les clouds, sont confrontés à deux problèmes majeurs. Le premier est de savoir quelles sont les ressources disponibles, y compris leurs contraintes et caractéristiques. L autre problème est la compétence requise pour sélectionner, configurer, et utiliser ces ressources, en tenant compte des différents objectifs tels que performance et coût. Dans ce contexte, un de nos objectifs est d examiner comment aider les utilisateurs à faire face à ces problèmes, en ne demandant qu une intervention minimale de leur part, pour configurer un environnement de cloud unique ou fédéré. 3
6 3 Énoncé de la thèse En 1992, Smarr and Catlett [40] ont introduit le concept de méta informatique. La méta informatique se rapporte à l utilisation des ressources informatiques distribuées, connectées par les réseaux. Donc, en créant un super-ordinateur virtuel : le méta ordinateur. Dans ce cas, ils préconisaient que les utilisateurs doivent tout ignorer du méta ordinateur, ou même d un quelconque ordinateur, puisque le méta ordinateur a la capacité d obtenir n importe quelle ressource informatique nécessaire. Sur base de cet point de vue, notre énoncé de la thèse veut que : Le cloud computing est un modèle intéressant pour la mise en œuvre d un méta ordinateur, en raison de ses fonctionnalités telles que, le sur demande, le paiement à l utilisation, et l élasticité. En outre, le modèle de cloud se concentre sur la fourniture de services informatiques, plutôt que sur des appareils informatiques ; c est-à-dire que dans le cloud, normalement, les utilisateurs ne connaissent pas l infrastructure informatique. En fin de compte, le modèle de cloud peut augmenter la fédération des ressources, et réduire les efforts pour démocratiser l accès aux environnements informatiques de haute performance (HPC) à un coût réduit. Par ailleurs, dans cette thèse, nous posons les questions suivantes : La fédération de clouds peut-elle être utilisée, pour réduire la consommation électrique des centres de données, sans encourir plusieurs pénalités de performance pour les utilisateurs? Les développeurs de logiciels peuvent-ils utiliser les clouds pour accélérer l exécution d une application cloud d origine à un coût réduit, sans être verrouillés vis-à-vis de tout fournisseur de cloud? Les utilisateurs inexpérimentés peuvent-ils utiliser un environnement cloud pour exécuter des applications qui ignorent le cloud, sans avoir à gérer des détails techniques de bas niveau, en ayant à la fois un temps d exécution et un coût financier acceptables, et sans avoir à changer leurs applications pour répondre à des contraintes du cloud? Existe-t-il une méthode pour soutenir la sélection et la configuration automatiques des ressources dans une fédération de clouds, offrant un niveau d abstraction adapté à différents profils d utilisateurs? 4 Présentation des règles de l art Dans les années 1960, le partage du temps a poussé le développement des réseaux informatiques [15]. De nos jours, le cloud computing est considéré comme un nouveau partage du temps [6], grâce à ses fonctionnalités telles que le sur demande, le paiement à l utilisation, et l élasticité. En outre, il réduit le coût que les utilisateurs paient pour avoir leurs propres infrastructures informatiques à grande échelle, et supprime la nécessité de faire des investissements initiaux, pour établir ces infrastructures informatiques. Autrement dit, le cloud computing 4
7 a permis un modèle informatique utilitaire, en offrant de l informatique, du stockage, et des logiciels en tant que service. Le modèle utilitaire fait place à la notion de démocratisation des ressources, et fournit la capacité pour un groupe de ressources accessible à toute personne, sur l Internet, quasi en temps réel. Cette notion est la principale différence entre le cloud computing et d autres paradigmes (par ex., les systèmes d informatique en grille), qui ont tenté de fournir des ressources informatiques sur l Internet, avant le cloud [45]. Par ailleurs, les clouds offrent des services sans savoir si les utilisateurs sont conscients ou ignorent tout de la technologie qu ils utilisent pour accéder aux services. En conclusion, le cloud computing a également gagné en popularité, depuis qu il peut aider les centres de données à réduire les coûts monétaires, et l empreinte carbone. Cependant, en considérant les points de vue des utilisateurs et des centres de données cloud, nous avons identifié quatre préoccupations majeures, liées au cloud : (a) la quantité élevée d énergie consommée par les centres de données de cloud ; (b) la difficulté de sélectionner un cloud approprié pour exécuter des applications à coût réduit ; (c) la difficulté pour configurer des ressources cloud, de façon appropriée ; et (d) la difficulté de modéliser différents clouds, de façon uniforme. Dans ce contexte, cette thèse a porté sur les clouds fédérés. Particulièrement, nous nous sommes fixés un objectif général : étudier l utilisation des clouds fédérés pour atteindre différents objectifs, en tenant compte de plusieurs profils utilisateurs, c est-àdire, des fournisseurs, développeurs, et les deux utilisateurs expérimentés (par ex., les administrateurs système), et les utilisateurs inexpérimentés du cloud. Cet objectif majeur a été décomposé en quatre objectifs définis au chapitre 1. Pour atteindre ces objectifs, tout d abord, nous avons présenté les systèmes dans les règles de l art, distribués à grande échelle (chapitre 2), ce qui inclut les systèmes en grappe, grille, le P2P, et le cloud. Les descriptions de ces systèmes ont été suivies par certains concepts importants et connexes, tels que la virtualisation, le MapReduce [8], l informatique autonome(chapitre 4), et l informatique verte (chapitre 5). En outre, une étude des architectures cloud IaaS, et des systèmes d informatique autonomes a également été présentée. Nous avons observé une convergence entre les systèmes en grille, les P2P, et les systèmes de cloud computing. D une part, de nombreux environnements en grille ont employé des techniques de virtualisation, pour fournir des environnements d exécution personnalisés, et pour augmenter le contrôle des ressources [1, 38, 42]. En outre, certains systèmes en grille se sont appuyés sur des techniques P2P, pour traiter le partage des ressources à grande échelle [12]. D autre part, les clouds ont commencé à faire usage de concepts en grille, tels que la fédération des ressources [4], pour augmenter la capacité de cloud sur demande, pour augmenter la disponibilité des ressources, et pour aider les utilisateurs (c est-à-dire, les fournisseurs et utilisateurs de cloud) quant à la réduction des coûts financiers. En conséquence, la complexité de gestion, d utilisation, et de développement pour ces environnements, a augmenté. Dans un tel contexte, l informatique autonome a trouvé sa place. Les systèmes autonomes d informatique peuvent s optimiser eux-mêmes, de façon autonome, en fonction des objectifs des utilisateurs [17], en s adaptant aux changements dans l environnement. Dans le domaine des systèmes distribués de grande échelle, les systèmes autonomes d informatique ont été utilisés pour réduire la consommation électrique [29, 35], pour répondre aux garanties en matière de performance [10, 33], et pour faire face aux 5
8 défaillances [11]. Néanmoins, la majorité des systèmes autonomes disponibles dans la littérature a abordé une seule propriété autonome parmi les huit propriétés proposées par Horn [17]. En outre, elle s est appuyée sur une architecture centralisée, qui limite l évolutivité des systèmes. 5 Contributions Ce travail a réussi à atteindre les objectifs soulignés dans l introduction, et à combler les questions déjà présentées au travers de l ensemble de ce document. Dans ce chapitre, nous écrivons les contributions de cette thèse de doctorat. Une consolidation des serveurs sensibles à la puissance, pour clouds fédérés Dans le chapitre 6, nous avons présenté la première contribution de cette thèse : une stratégie de consolidation de serveurs pour réduire la consommation électrique dans les fédérations de cloud, qui aborde la préoccupation (a), souligné à la section 4, cinquième paragraphe. Notre stratégie de consolidation de serveurs vise à réduire la consommation électrique dans les fédérations de cloud, pour tenter de répondre aux exigences QoS. Nous avons supposé que les clouds avaient une consommation électrique limitée, définie par un agent tiers. Dans ce cas, nous avons abordé les charges de travail des applications, compte tenu des coûts pour activer/désactiver les serveurs, et pour migrer les machines virtuelles dans le même centre de données, et entre différents centres de données [26]. Les résultats de la simulation ont montré que notre stratégie pouvait diminuer la consommation électrique de 46 %, avec un ralentissement de 22 % du temps d exécution. Comme avec d autres travaux [39, 43, 44], les expériences ont été réalisées par le biais du simulateur CloudSim [5], avec deux clouds, et 400 machines virtuelles en simultané. Au total, les résultats ont démontré que la fédération de clouds peut fournir une solution intéressante pour faire face à la consommation électrique, en utilisant l infrastructure informatique d autres clouds, lorsqu un cloud est à court de ressources, ou lorsque d autres clouds possèdent des ressources à faible consommation d énergie. Même si nous avons réalisé de très bons résultats avec notre stratégie, nous avons remarqué que d autres variables devaient également être envisagées, telles que le type de charge de travail, les caractéristiques du centre de données (c est-à-dire, lieu, source d alimentation), et la bande passante du réseau, étant donné que ces variables peuvent impacter l ensemble de la consommation électrique d un centre de données. En outre, puisque le processeur (CPU) ne domine plus la consommation électrique des noeuds [31], la consommation électrique d autres composants (par ex., mémoire, disques) doit être prise en considération. De plus, l hétérogénéité des ressources devrait également être envisagée, parce que les centres de données comprennent généralement des ressources hétérogènes qui peuvent présenter différentes consommation électrique et différentes courbes. Cela nécessite de l énergie et des stratégies de répartition de charge, sensibles à la performance. Nous laissons ces extensions pour un travail futur. 6
9 Une architecture pour exécuter des applications cloud d origine, dans une fédération verticale de clouds Dans le chapitre 7, nous avons proposé et évalué une architecture pour exécuter une application cloud d origine, dans une fédération verticale de clouds, à coût nul [25], qui aborde la préoccupation (b), souligné à la section 4, cinquième paragraphe.. L architecture a utilisé une stratégie de gestion hiérarchique et distribuée, pour permettre aux développeurs d exécuter leurs applications, en utilisant les services offerts par deux différents types de fournisseurs de cloud, c est-à-dire, des clouds PaaS et IaaS. Dans notre architecture, il y a un coordinateur de cloud, plusieurs cloud maîtres, et esclaves. Les utilisateurs soumettent leurs applications au coordinateur de cloud, qui les envoie au cloud maîtres. Ensuite, les cloud maîtres distribuent les tâches aux esclaves, selon un modèle de publication/d abonnement. L application était une version MapReduce d une application de comparaison de séquences biologiques, qui avait également été mise en œuvre dans ce travail. Les résultats expérimentaux ont prouvé (i) qu en utilisant cinq clouds publics, l architecture proposée pouvait surpasser de 22,55 % le temps d exécution de la meilleure exécution de cloud autonome ; (ii) que le temps d exécution a été réduit de 5 heures et 44 minutes (outil séquentiel SSEARCH) à 13 minutes (notre exécution cloud). Ce résultat est comparable à ceux réalisés avec des versions de comparaison de séquences biologiques en groupes multi-cœur et Cell/BEs (tableau 7.3) ; et (iii) que la fédération pouvait permettre l exécution d une énorme application attentive au cloud, sans frais, et sans être liée à n importe quel fournisseur de cloud. Dans cette expérience, nous avons réalisé des comparaisons de séquences biologiques. Bien que nous soyons en mesure d exécuter une énorme application dans une fédération verticale de clouds, notre architecture posait quelques questions, telles que : (i) l usage d un coordinateur centralisé pour distribuer les tâches, et (ii) le manque de stratégies de tolérance d erreurs, à la fois du coordinateur de cloud et des cloud maîtres. La première version a limité l évolutivité de l architecture, et son utilisation dans un environnement dynamique. En outre, l échec du coordinateur nécessite la réexécution de l ensemble de l application, puisque l architecture n a pas fourni de moyen pour découvrir les tâches distribuées à chaque cloud maître. Dans ce cas, les maîtres ont poursuivi l exécution de leurs tâches, mais les résultats sont inaccessibles pour les utilisateurs. Par ailleurs, même si les applications MapReduce sont une infrastructure informatique agnostique, il est devenu clair à nos yeux, que le fait de concevoir et de développer des applications pour différents clouds, représente une tâche difficile même pour des développeurs cloud expérimentés, en raison des diverses contraintes et divers types de ressources, offertes par les clouds, c est-à-dire, l hétérogénéité des clouds. Par conséquent, à ce stade, nous avons décidé d étudier : (a) la faisabilité de l utilisation d un environnement cloud par des utilisateurs ordinaires, pour exécuter des applications qui ignorent le cloud, sans avoir besoin de restructurer les applications ; et (b) des modèles qui peuvent aider les utilisateurs à faire face à l hétérogénéité du cloud, en offrant un niveau d abstraction pouvant être compris par différents profils d utilisateur, et pouvant également promouvoir la réutilisation. 7
10 Excalibur Dans le chapitre 8, nous avons proposé et évalué une architecture cloud qui vise à : (i) aider les utilisateurs de cloud non qualifiés, lors de l exécution de leurs applications dans le cloud ; (ii) intensifier les applications nécessitant un minimum d intervention de la part des utilisateurs ; et (iii) essayer de répondre aux objectifs des utilisateurs, tels que la performance et une réduction du coût financier [28]. Pour atteindre de tels objectifs, et également pour aborder la préoccupation (c), souligné à la section 4, cinquième paragraphe, notre architecture met en place l ensemble de l environnement cloud, et elle tente d accélérer l exécution des applications, par la mise en œuvre d une stratégie d auto-extension. Notre auto-extension cible des applications qui comprennent des tâches indépendantes, bien que les applications aient été élaborées pour s exécuter consécutivement. Les tâches indépendantes sont identifiées sur base des descriptions de haut niveau, fournies par l utilisateur. Nous avons évalué l architecture, en exécutant un flux de travail génomique sur Amazon EC2, en tenant compte de deux scénarios. Dans le premier scénario, les utilisateurs ont sélectionné les ressources, alors que dans le second, notre architecture, basée sur des données historiques, a sélectionné automatiquement les ressources. Les expériences ont montré que notre stratégie d auto-extension pouvait surpasser le temps d exécution des ressources, choisies par l utilisateur, en réduisant de façon dynamique les applications jusqu à 11 machines virtuelles. En outre, cela a également aidé à réduire le coût monétaire de 84 %. Cependant, cette architecture présente les questions suivantes : (i) les utilisateurs doivent sélectionner les ressources, lors de la première exécution des applications ; (ii) cela suppose un environnement où les contraintes, associées à une ressource, étaient les mêmes entre tous les clouds appartenant à un fournisseur de cloud. Néanmoins, les clouds d un fournisseur sont communément hétérogènes. Une méthode d ingénierie de la ligne de produits logiciels, pour la sélection de ressources, et la configuration dans des clouds fédérés Motivés par les difficultés que nous avons observées lors du développement de plusieurs clouds, et par les tâches complexes requises pour configurer un réel environnement cloud, tel qu expliqué dans nos deux précédentes contributions, nous avons examiné des modèles qui devraient s attaquer à ces problèmes. En particulier, nous sommes intéressés par des modèles qui (i) supporteraient la description de services de clouds, indépendamment des fournisseurs de cloud ; (ii) permettraient la mise à disposition automatique des ressources sur plusieurs clouds, en tenant compte des dépendances temporelles et fonctionnelles entre les ressources, et laissant ainsi les environnements dans un état cohérent ; (iii) aideraient à réaliser les objectifs (c est-à-dire, exigences fonctionnelles et nonfonctionnelles), des différents profils utilisateur, c est-à-dire, experts en cloud, administrateurs système, développeurs, et utilisateurs novices ; et (iv) fourniraient un niveau d abstraction adapté à ces différents types d utilisateurs. A notre connaissance et en toute honnêteté, la littérature manque de tels modèles. Pour relever ces problèmes, nous avons utilisé au chapitre 9, une méthode d ingénierie de ligne logicielle de produits (SPL). En utilisant une SPL, nous avons défini un modèle de variabilité, basé sur les fonctionnalités, 8
11 pour les configurations de cloud. En utilisant ce modèle, nous avons été en mesure de définir une architecture, et d en tirer des produits appropriés. En employant une méthode d ingénierie SPL, nous avons pu saisir la connaissance de la création, et de la configuration des environnements de cloud computing, sous la forme d actifs réutilisables. En outre, les utilisateurs non-techniques comprennent les modèles de caractéristique, puisqu ils se rapportent à des concepts de domaines. Dans le cadre de cette thèse, un produit valable est un environnement de cloud computing (c est-à-dire, machine virtuelle et applications), qui rencontre les exigences des utilisateurs, que leurs descriptions soient de haut ou de bas niveau. Alors que les descriptions de haut niveau comprennent le nombre de coeurs du CPU, le système d exploitation, la quantité minimale de mémoire RAM, et le coût financier maximum par heure, les descriptions de bas niveau comprennent le type de virtualisation, la performance durable, la technologie de disque, entre autres. Par ailleurs, un environnement de cloud computing doit également correspondre aux contraintes de configuration et aux dépendances des applications du cloud. Du point de vue des utilisateurs, l utilisation d une méthode d ingénierie SPL conduit à des environnements cloud personnalisables, à des coûts financiers inférieurs. En outre, puisque divers actifs sont réutilisés, cela augmente la fiabilité et l exactitude [7]. Ainsi, en particulier, nos contributions dans cette partie, sont les suivantes : (i) l utilisation d un modèle de caractéristique étendu (EFM), avec des attributs pour décrire les environnements cloud IaaS. Le modèle de caractéristique (FM) traite des points communs et des variabilités de la couche IaaS, permettant la description de l ensemble de l environnement informatique (c est-à-dire, le matériel et les logiciels), indépendamment du fournisseur de cloud, et sans nécessiter l usage de l image d une machine virtuelle ; (ii) une stratégie déclarative et automatisée, qui permet la sélection et configuration de ressources, dans un scénario multi-cloud ; (iii) une connaissance de la configuration de domaine cartographie les modèles de caractéristique dans des actifs réutilisables ; (iv) le déploiement automatisé de l environnement informatique dans les clouds. Nous avons également élaboré un prototype pour évaluer une méthode tenant compte de deux différents fournisseurs de cloud. Dans ce prototype, nous avons utilisé Choco [20], un spécialiste en résolution de problèmes normalisés de satisfaction de contraintes (CSP), pour mettre en œuvre notre modèle basé sur les fonctionnalités, et pour sélectionner les configurations qui répondent aux objectifs des utilisateurs. Les résultats expérimentaux ont montré qu en utilisant la méthode proposée, les utilisateurs pouvaient obtenir une configuration optimale par rapport à leurs objectifs, sans avoir besoin de connaître les contraintes et variabilités de chaque cloud. En outre, notre modèle a permis le déploiement et la reconfiguration de l application, lors de l exécution, dans un scénario de fédération de clouds, sans nécessiter l usage d une image de machine virtuelle(vmi). La méthode d ingénierie SPL proposée, a été utilisée pour mettre en œuvre un système autonome, qui s attaque aux préoccupations (c) et (d), soulignées à la section 4, cinquième paragraphe. Dohko Dans le chapitre 10, nous avons proposé et évalué notre dernière intervention : un système autonome et axé sur les objectifs, pour les clouds fédérés. Notre système autonome vise à aborder les questions identifiées dans notre seconde intervention (chapitre 7), et à 9
12 permettre une stratégie déclarative permettant d exécuter les applications des utilisateurs dans plusieurs clouds, selon la méthode d ingénierie SPL décrite à la section précédente, et au chapitre 9. Notre système met en œuvre les propriétés autonomes suivantes : auto-configuration, autocorrection, et sensibilité contextuelle. En outre, il s appuie sur une superposition [27] hiérarchique P2P, pour faire face aux défaillances et réduire la communication inter-cloud. En employant une stratégie déclarative, le système pourrait exécuter une application de comparaison de séquences biologiques dans un scénario unique, et dans un scénario fédéré de cloud, nécessitant l intervention minimale des utilisateurs, pour sélectionner, déployer, et configurer l ensemble de l environnement cloud. En particulier, notre système aborde le manque de prototypes d intergiciels pouvant supporter les différents scénarios, lors de l utilisation des services à partir de plusieurs clouds IaaS. En outre, il a rencontré diverses exigences fonctionnelles, identifiées pour plusieurs systèmes qui ignorent le cloud [34], tels que : (i) il prévoit une façon de décrire les exigences fonctionnelles et non-fonctionnelles, au travers de l usage d une méthode d ingénierie de ligne de produits (PLE) (chapitre 9) ; (ii) il peut regrouper des services de différents clouds ; (iii) il prévoit une interface homogène, pour accéder aux services de plusieurs clouds ; (iv) il permet la sélection de services dans les clouds ; (v) il peut déployer ses composants dans plusieurs clouds ; (vi) il prévoit des procédures automatiques pour les déploiements ; (vii) il utilise un réseau de superposition, pour connecter et organiser les ressources ; (viii) il n impose aucune contrainte aux clouds connectés. Un des problèmes de notre système, est le manque de stratégie d auto-optimisation, parce qu il ne se concentre pas sur la planification des tâches. Nous laissons ces extensions pour un travail futur. Le prototype de logiciel est disponible sur dohko.io. 6 Perspectives Dans ce chapitre, nous présentons certaines orientations de recherches futures, pour ce travail. Elles peuvent être classées comme suit : (a) modèles de gestion de l énergie pour plusieurs clouds ; (b) gestion du cloud computing, et informatique opportuniste ; (c) support des autres propriétés autonomes ; et (d) mécanismes améliorés, pour soutenir les développeurs lors de l écriture des applications auto-adaptatives. Modèles de gestion de l énergie, pour plusieurs clouds: il devrait être intéressant de prendre en considération un scénario dynamique multi-cloud, où les objectifs et les incitants des fournisseurs changent avec le temps. Dans ce cas, nous avons l intention d étudier les stratégies basées sur la théorie du jeu, pour modéliser les différentes interactions entre les entités de cloud (par ex., utilisateurs, fournisseurs), en tenant compte des comportements et conflits égoïstes. En outre, nous voulons étendre notre stratégie sensible à la puissance, pour prendre en considération d autres variables comme le type de source d alimentation, l emplacement du centre de données, et la neutralité carbone. Par exemple, la neutralité carbone peut être obtenue par l achat de crédits carbone auprès des fournisseurs de la fédération, en répartissant la charge de travail au travers des clouds, à la fois avec de faibles coûts de l électricité, et une faible empreinte carbone, et/ou en utilisant la consolidation de la charge de travail pour réduire le nombre de ressources sous-utilisées. 10
13 Gestion du cloud computing et informatique opportuniste : nous avons aussi l intention de combiner la puissance de calcul des appareils mobiles avec le cloud, de telle manière que les applications puissent décider de façon autonome, quel code peut être effectué localement, et lequel doit être délesté dans le cloud. Ceci peut être utilisé pour réduire le coût financier, ou la consommation électrique à la fois des appareils portables, et du centre de données, de même que pour maximiser l usage des appareils mobiles. La coordination et la répartition du travail sur les dispositifs peuvent représenter une difficulté. Dans ce cas, un modèle P2P de coordination peut être employé, en même temps que l utilisation d une méthode d ingénierie de ligne de produits, telle que décrite au chapitre 9, pour faire face aux dépendances fonctionnelles et non-fonctionnelles. En outre, des ressources réparties peuvent être regroupées, pour créer des micro-clouds afin de fournir suffisamment de ressources à une application. Support des autres propriétés autonomes : nous avons aussi l intention de mettre en œuvre l auto-optimisation, et d étendre la mise en œuvre de notre sensibilité contextuelle, pour envisager d autres scénarios de reconfiguration lors de l exécution, en fonction des caractéristiques des applications, et de l apparition de nouveaux clouds ou ressources. En outre, nous avons également l intention d étudier la mise en œuvre des stratégies de planification des tâches, comme le vol de travail [19, 36], dans des environnements de fédération de clouds. Mécanismes améliorés, pour soutenir les développeurs lors de l écriture des applications auto-adaptatives : bien que la ligne de produits logiciels contribue à améliorer la maintenance d une application, des outils et cadres sont toujours nécessaires pour soutenir le développement des applications auto-adaptatives, pour les environnements à grande échelle. Dans ce cas, des langues spécifiques au domaine peuvent être développées. Aujourd hui, nous avons Clafer [2], qui permet aux ingénieurs de domaine de valider les modèles de domaine, et de générer la représentation des modèles devant être motivée par certains spécialistes en résolution de problèmes, comme Alloy [18] et Choco [20]. Ainsi, une stratégie similaire pourrait être créée pour valider le développement de lignes de produits, et pour soutenir les décisions des applications autonomes, lors de l exécution. 7 Menace pour la validité Il y a quelques préoccupations relatives à la validité de nos contributions, décrites dans la seconde partie de cette thèse de doctorat. Tout d abord, les systèmes et modèles de caractéristique, illustrés dans ce travail, ont été construits sur base de notre expérience en développement, déploiement, et configuration des services cloud IaaS, de même qu en matière d administration d environnements informatiques. En second lieu, ces modèles ont été limités aux fonctionnalités publiées par les fournisseurs de cloud. Troisièmement, étant donné que notre méthode s appuie sur des repères pour recueillir la valeur qualitative attribuée aux ressources, de faibles variantes dans les valeurs de résultat peuvent se produire, la plupart du temps, pour deux raisons : (i) nous ne pouvons pas contrôler l attribution des ressources physiques aux ressources virtuelles, et (ii) la charge de travail du cloud peut changer au fil du temps, de même que les objectifs des fournisseurs de cloud. Quatrièmement, en raison de l évolution du cloud computing, certaines ressources, 11
14 des clouds ou même des fournisseurs peuvent apparaître et/ou disparaître. Ainsi, les expériences et les modèles concrets de caractéristique, présentés dans cette thèse, peuvent ne plus être valables sur le long terme. Toutefois, cela n invalide pas notre résumé de modèle de caractéristique, il est indépendant du fournisseur de cloud. En outre, notre architecture n est n ont plus pas invalidée. Enfin, bien que les exemples traitent des clouds publics tels que l EC2, GCE, et Heroku, nos contributions ne sont pas limitées à ces clouds, puisque les plate-formes cloud suivent les mêmes principes employés par ces fournisseurs de cloud. Des exemples de plate-formes cloud comprennent OpenStack (openstack.org), OpenNebula [30], CloudStack (cloudstack.apache.org), Eucalyptus [32], et Nimbus [22]. 8 Considérations Finales Le cloud représente un modèle informatique, permettant d offrir une informatique de haute performance comme utilitaire, en promouvant la coopération entre les différentes organisations, tout en réduisant les coûts. Nous espérons que des études, telle que celle présentée dans cette thèse, contribueront au développement des systèmes de cloud, c està-dire, au développement du méta ordinateur, se rapprochant du concept informatique utilitaire, envisagé par McCarthy [13], Smarr and Catlett, et Dertouzos [9]. 12
15 Bibliographie [1] Sumalatha Adabala, Vineet Chadha, Puneet Chawla, Renato Figueiredo, José Fortes, Ivan Krsul, Andrea Matsunaga, Mauricio Tsugawa, Jian Zhang, Ming Zhao, Liping Zhu, and Xiaomin Zhu. From virtualized resources to virtual computing grids: The in-vigo system. Future Generation Computer Systems, 21(6): , [2] Kacper Bak, Krzysztof Czarnecki, and Andrzej Wasowski. Feature and meta-models in Clafer: Mixed, specialized, and coupled. In 3rd International Conference on Software Language Engineering, pages , [3] Luiz André Barroso, Jimmy Clidaras, and Urs Hölzle. The Datacenter as a Computer: An Introduction to the Design of Warehouse-Scale Machines. Synthesis Lectures on Computer Architecture. Morgan and Claypool Publishers, 2nd edition, [4] Rajkumar Buyya, Chee Shin Yeo, Srikumar Venugopal, James Broberg, and Ivona Brandic. Cloud computing and emerging it platforms: Vision, hype, and reality for delivering computing as the 5th utility. Future Generation Computer Systems, 25: , [5] Rodrigo N. Calheiros, Rajiv Ranjan, Anton Beloglazov, César A. F. De Rose, and Rajkumar Buyya. CloudSim: a toolkit for modeling and simulation of cloud computing environments and evaluation of resource provisioning algorithms. Software: Practice and Experience, 41(1):23 50, [6] Vinton G. Cerf. ACM and the professional programmer. Queue, 12(7):10:10 10:11, [7] Krzysztof Czarnecki and Ulrich W. Eisenecker. Generative Programming: Methods, Tools, and Applications. ACM Press/Addison-Wesley, [8] Jeffrey Dean and Sanjay Ghemawat. MapReduce: Simplified data processing on large clusters. In Conference on Symposium on Opearting Systems Design & Implementation, pages USENIX Association, [9] Michael L. Dertouzos. The Unfinished Revolution: Human-Centered Computers and What They Can Do for Us. HarperInformation, [10] Sourav Dutta, Sankalp Gera, Akshat Verma, and Balaji Viswanathan. SmartScale: Automatic application scaling in enterprise clouds. In 5th International Conference on Cloud Computing (CLOUD), pages ,
16 [11] Eugen Feller, Louis Rilling, and Christine Morin. Snooze: A scalable and autonomic virtual machine management framework for private clouds. In IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing, pages , [12] Ian Foster and Adriana Iamnitchi. On death, taxes, and the convergence of peer-topeer and grid computing. In 2nd International Workshop on Peer-to-Peer Systems, pages , [13] Simson Garfinkel. The computer utility. In Harold Abelson, editor, Architects of the Information Society: 35 Years of the Laboratory for Computer Science at MIT. MIT Press, [14] Greenpeace. Make it green: Cloud computing and its contribution to climate change. Technical report, Greenpeace International, March URL greenpeace.org/ usa/global/usa/report/2010/3/make-it-green-cloud-computing.pdf. Last accessed in April [15] Michael Hauben and Ronda Hauben. Netizens: On the History and Impact of Usenet and the Internet. Wiley-IEEE Computer Society, [16] Brian Hayes. Cloud computing. Communications of the ACM, 51:9 11, [17] Paul Horn. Autonomic computing: IBM s perspective on the state of information technology. computing.pdf, Last accessed in January [18] Daniel Jackson. Software Abstractions: Logic, Language, and Analysis. The MIT Press, revised edition, [19] Robert H. Halstead Jr. Implementation of Multilisp: Lisp on a Multiprocessor. In ACM Symposium on LISP and Functional Programming, pages 9 17, [20] Narendra Jussien, Guillaume Rochart, and Xavier Lorca. Choco: an Open Source Java Constraint Programming Library. In Workshop on Open-Source Software for Integer and Contraint Programming, pages 1 10, [21] Gideon Juve, Mats Rynge, Ewa Deelman, Jens-S. Vockler, and G. Bruce Berriman. Comparing FutureGrid, Amazon EC2, and Open Science Grid for Scientific Workflows. Computing in Science & Engineering, 15(4):20 29, [22] K. Keahey, I. Foster, T. Freeman, and X. Zhang. Virtual workspaces: Achieving quality of service and quality of life in the grid. Scientific Programming, 13(4): , [23] Jonathan G Koomey. Estimating total power consumption by servers in the U.S. and the world. Technical report, Lawrence Berkeley National Laboratory and Consulting Professor, Stanford University, February URL hightech.lbl.gov/documents/ DATA_CENTERS/svrpwrusecompletefinal.pdf. Last accessed in April
17 [24] Jonathan G Koomey. Growth in data center electricity use 2005 to Oakland, CA: Analytics Press, [25] Alessandro Ferreira Leite and Alba Cristina Magalhães Alves de Melo. Executing a biological sequence comparison application on a federated cloud environment. In 19th International Conference on High Performance Computing, pages 1 9, [26] Alessandro Ferreira Leite and Alba Cristina Magalhães Alves de Melo. Energy-aware multi-agent server consolidation in federated clouds. In Mazin Yousif and Lutz Schubert, editors, Cloud Computing, volume 112 of Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, pages [27] Alessandro Ferreira Leite, Hammurabi Chagas Mendes, Li Weigang, Alba Cristina Magalhães Alves Melo, and Azzedine Boukerche. An architecture for P2P bag-of-tasks execution with multiple task allocation policies in desktop grids. Cluster Computing, 15(4): , [28] Alessandro Ferreira Leite, Claude Tadonki, Christine Eisenbeis, Tainá Raiol, Maria Emilia M. T. Walter, and Alba Cristina Magalhães Alves de Melo. Excalibur: An autonomic cloud architecture for executing parallel applications. In 4th International Workshop on Cloud Data and Platforms, pages 2:1 2:6, [29] Moreno Marzolla, Ozalp Babaoglu, and Fabio Panzieri. Server consolidation in clouds through gossiping. In IEEE International Symposium on a World of Wireless, Mobile and Multimedia Networks, pages 1 6. IEEE Computer, [30] Dejan Milojicic, Ignacio M. Llorente, and Ruben S. Montero. OpenNebula: A cloud management tool. IEEE Internet Computing, 15(2):11 14, [31] Laurl Minas and Brad Ellison. Energy Efficiency for Information Technology: How to Reduce Power Consumption in Servers and Data Centers. Intel Press, [32] Daniel Nurmi, Rich Wolski, Chris Grzegorczyk, Graziano Obertelli, Sunil Soman, Lamia Youseff, and Dmitrii Zagorodnov. The eucalyptus open-source cloud-computing system. In 9th IEEE/ACM International Symposium on Cluster Computing and the Grid, pages , [33] Giuseppe Papuzzo and Giandomenico Spezzano. Autonomic management of workflows on hybrid grid-cloud infrastructure. In 7th International Conference on Network and Services Management, pages International Federation for Information Processing, [34] Dana Petcu. Consuming resources and services from multiple clouds. Journal of Grid Computing, pages 1 25, [35] Ivan Rodero, Hariharasudhan Viswanathan, Eun Kyung Lee, Marc Gamell, Dario Pompili, and Manish Parashar. Energy-efficient thermal-aware autonomic management of virtualized HPC cloud infrastructure. Journal of Grid Computing, 10(3): ,
18 [36] Larry Rudolph, Miriam Slivkin-Allalouf, and Eli Upfal. A simple load balancing scheme for task allocation in parallel machines. In 3rd Annual ACM Symposium on Parallel Algorithms and Architectures, pages , [37] A. Samba. Logical data models for cloud computing architectures. IT Professional, 14(1):19 26, [38] Sriya Santhanam, Pradheep Elango, Andrea Arpaci-Dusseau, and Miron Livny. Deploying virtual machines as sandboxes for the grid. In 2nd Conference on Real, Large Distributed Systems, pages 7 12, [39] Yuxiang Shi, Xiaohong Jiang, and Kejiang Ye. An energy-efficient scheme for cloud resource provisioning based on CloudSim. In IEEE International Conference on Cluster Computing, pages , [40] Larry Smarr and Charles E. Catlett. Metacomputing. Communications of the ACM, 35(6):44 52, [41] Edward Stanford. Environmental trends and opportunities for computer system power delivery. In 20th International Symposium on Power Semiconductor Devices and IC s, pages 1 3, [42] Lizhe Wang, Gregor von Laszewski, Marcel Kunze, Jie Tao, and Jai Dayal. Provide virtual distributed environments for grid computing on demand. Advances in Engineering Software, 41(2): , [43] Linlin Wu, Saurabh Kumar Garg, and Rajkumar Buyya. SLA-based resource allocation for software as a service provider (SaaS) in cloud computing environments. In 11th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing, pages , [44] Qi Zhang, Eren Gürses, Raouf Boutaba, and Jin Xiao. Dynamic resource allocation for spot markets in clouds. In 11th USENIX Conference on Hot Topics in Management of Internet, Cloud, and Enterprise Networks and Services, pages 1 6, [45] Shuai Zhang, Xuebin Chen, Shufen Zhang, and Xiuzhen Huo. The comparison between cloud computing and grid computing. In International Conference on Computer Application and System Modeling, volume 11, pages V11 72 V11 75, [46] Yong Zhao, Xubo Fei, I. Raicu, and Shiyong Lu. Opportunities and challenges in running scientific workflows on the cloud. In CyberC, pages ,
Cloud Computing. Introduction. ! Explosion du nombre et du volume de données
Cloud Computing Frédéric Desprez LIP ENS Lyon/INRIA Grenoble Rhône-Alpes EPI GRAAL 25/03/2010! Introduction La transparence d utilisation des grandes plates-formes distribuées est primordiale Il est moins
Systèmes Répartis. Pr. Slimane Bah, ing. PhD. Ecole Mohammadia d Ingénieurs. G. Informatique. Semaine 24.2. [email protected]
Ecole Mohammadia d Ingénieurs Systèmes Répartis Pr. Slimane Bah, ing. PhD G. Informatique Semaine 24.2 1 Semestre 4 : Fev. 2015 Grid : exemple SETI@home 2 Semestre 4 : Fev. 2015 Grid : exemple SETI@home
Evolution des technologies et émergence du cloud computing Drissa HOUATRA, Orange Labs Issy
Evolution des technologies et émergence du cloud computing Drissa HOUATRA, Orange Labs Issy Séminaire Aristote, 17 Déc. 2009 Ecole Polytechnique Palaiseau Plan L'univers du cloud Ressources Grilles, middleware
Elasticité logicielle pour optimiser l empreinte énergétique
Ecole des Mines de Nantes Elasticité logicielle pour optimiser l empreinte énergétique Thomas Ledoux (équipe Ascola, INRIA-EMN, LINA) direction des études décembre 2010 page 1 Relation logiciel empreinte
Ordonnancement sous contraintes de Qualité de Service dans les Clouds
Ordonnancement sous contraintes de Qualité de Service dans les Clouds GUÉROUT Tom DA COSTA Georges (SEPIA) MONTEIL Thierry (SARA) 05/12/2014 1 Contexte CLOUD COMPUTING Contexte : Environnement de Cloud
CA Automation Suite for Data Centers
FICHE PRODUIT : CA Automation Suite for Data Centers CA Automation Suite for Data Centers agility made possible «La technologie a devancé la capacité à la gérer manuellement dans toutes les grandes entreprises
Bonjour. Yohan PARENT, Cyprien FORTINA, Maxime LEMAUX, Hyacinthe CARTIAUX
Bonjour I.Le contexte II.Le cloud computing III.L'expérimentation des solutions libres sur Grid'5000 1.Eucalyptus 2.OpenNebula 3.OpenStack IV.Tableau Comparatif V.Conclusion I.Le contexte 1)Le projet
Maîtrise énergétique des centres de données
LABORATOIRE D INFORMATIQUE DE NANTES-ATLANTIQUE UMR 6241 ÉCOLE DOCTORALE STIM, N. 503 «Sciences et technologies de l information et des mathématiques» Sujet de thèse pour 2010 Maîtrise énergétique des
+ = OpenStack Presentation. Raphaël Ferreira - CoFounder. @ enovance. Credits : Thanks to the OpenStack Guys 1
+ = OpenStack Presentation Raphaël Ferreira - CoFounder @ enovance Credits : Thanks to the OpenStack Guys 1 INTRODUCTION 2 Les entreprises déploient des clouds pour... Répondre aux besoins de ressources
FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters AVANTAGES
FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBLITÉ CONTINUE ET MOBILITÉ DES DONNÉES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue
Lʼavenir des grilles Des grilles aux Clouds avec quelques «petits problèmes» de recherche. F. Desprez INRIA
Lʼavenir des grilles Des grilles aux Clouds avec quelques «petits problèmes» de recherche F. Desprez INRIA Introduction Les grilles font-elles déjà parties du passé? Des plates-formes de recherche et de
FAMILLE EMC VPLEX. Disponibilité continue et mobilité des données dans et entre les datacenters
FAMILLE EMC VPLEX Disponibilité continue et mobilité des données dans et entre les datacenters DISPONIBILITE CONTINUE ET MOBILITE DES DONNEES DES APPLICATIONS CRITIQUES L infrastructure de stockage évolue
FOURNIR UN SERVICE DE BASE DE DONNÉES FLEXIBLE. Database as a Service (DBaaS)
FOURNIR UN SERVICE DE BASE DE DONNÉES FLEXIBLE Database as a Service (DBaaS) 1 The following is intended to outline our general product direction. It is intended for information purposes only, and may
LES APPROCHES CONCRÈTES POUR LE DÉPLOIEMENT D INFRASTRUCTURES CLOUD AVEC HDS & VMWARE
LES APPROCHES CONCRÈTES POUR LE DÉPLOIEMENT D INFRASTRUCTURES CLOUD AVEC HDS & VMWARE Sylvain SIOU VMware Laurent DELAISSE Hitachi Data Systems 1 Hitachi Data Systems Corporation 2012. All Rights Reserved
IT SERVICES BUSINESS STORAGE DATA AUDIT PARTNERSHIP INTEGRATOR SECURITY PLANNING PRIVATE AGILITY DYNAMIC PUBLIC TECHNOLOGY SOLUTIONS MANAGEMENT
ACTIVE BUSINESS TALENT ANSWERS DESIGN AUDIT HYBRID DRP PRIVATE SOFTWARE ENGINEERING AGILITY DYNAMIC DEPLOY SECURITY COMPUTE USER Initialisation démonstration EVO:RAIL PROVISIONING ORCHESTRATION WORKLOAD
Hébergement MMI SEMESTRE 4
Hébergement MMI SEMESTRE 4 24/03/2015 Hébergement pour le Web Serveurs Mutualités Serveurs Dédiés Serveurs VPS Auto-Hébergement Cloud Serveurs Mutualités Chaque Serveur héberge plusieurs sites Les ressources
Résolvez vos problèmes d énergie dédiée à l informatique
Résolvez vos problèmes d énergie dédiée à l informatique GRÂCE À UNE SOLUTION ENERGY SMART DE DELL Surmonter les défis énergétiques des datacenters Les responsables informatiques ont un problème urgent
Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles
Le Ro le Hyper V Troisie me Partie Haute disponibilite des machines virtuelles Microsoft France Division DPE Table des matières Présentation... 2 Objectifs... 2 Pré requis... 2 Quelles sont les principales
Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie
Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie 1 Présenté par: Yacine KESSACI Encadrement : N. MELAB E-G. TALBI 31/05/2011 Plan 2 Motivation
Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing
Enseignant: Lamouchi Bassem Cours : Système à large échelle et Cloud Computing Les Clusters Les Mainframes Les Terminal Services Server La virtualisation De point de vue naturelle, c est le fait de regrouper
Tirez plus vite profit du cloud computing avec IBM
Tirez plus vite profit du cloud computing avec IBM Trouvez des solutions de type cloud éprouvées qui répondent à vos priorités principales Points clés Découvrez les avantages de quatre déploiements en
e need L un des premiers intégrateurs opérateurs Cloud Computing indépendants en France
e need L un des premiers intégrateurs opérateurs Cloud Computing indépendants en France Sommaire Cloud Computing Retours sur quelques notions Quelques chiffres Offre e need e need Services e need Store
Atteindre la flexibilité métier grâce au data center agile
Atteindre la flexibilité métier grâce au data center agile Aperçu : Permettre l agilité du data-center La flexibilité métier est votre objectif primordial Dans le monde d aujourd hui, les clients attendent
ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE
Mémoires 2010-2011 www.euranova.eu MÉMOIRES ETUDE ET IMPLÉMENTATION D UNE CACHE L2 POUR MOBICENTS JSLEE Contexte : Aujourd hui la plupart des serveurs d application JEE utilise des niveaux de cache L1
La tête dans les nuages
19 novembre 2010 La tête dans les nuages Démystifier le "Cloud Computing" Jean Bernard, Directeur, Gestion des services Radialpoint SafeCare Inc. Au sujet de Radialpoint Radialpoint offre des solutions
Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud. Grid and Cloud Computing
Chapitre 1. Infrastructures distribuées : cluster, grilles et cloud Grid and Cloud Computing Problématique Besoins de calcul croissants Simulations d'expériences coûteuses ou dangereuses Résolution de
7 avantages à la virtualisation des applications stratégiques de votre entreprise
7 avantages à la virtualisation des applications stratégiques de votre entreprise Contenu de cet ebook Mise en contexte Avantage 1 : Accélération des mises à niveau grâce au clonage Avantage 2 : Réservation
Playbook du programme pour fournisseurs de services 2e semestre 2014
Playbook du programme pour fournisseurs de services 2e semestre 2014 Sommaire 3 Bienvenue dans le programme VSPP (VMware Service Provider Program) 4 Présentation de VMware vcloud Air Network 5 VMware vcloud
APX et VCE, Modèle d industrialisation de l intégration et du déploiement. Olivier BERNARD, VCE
APX et VCE, Modèle d industrialisation de l intégration et du déploiement Olivier BERNARD, VCE Généralisation des réseaux, suprématie d IP Consumérisation des terminaux informatiques Evolution vers une
Livre. blanc. Solution Hadoop d entreprise d EMC. Stockage NAS scale-out Isilon et Greenplum HD. Février 2012
Livre blanc Solution Hadoop d entreprise d EMC Stockage NAS scale-out Isilon et Greenplum HD Par Julie Lockner et Terri McClure, Analystes seniors Février 2012 Ce livre blanc d ESG, qui a été commandé
Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription
Vers l'orchestration de grilles de PC par les mécanismes de publicationsouscription Présentée par Leila Abidi Sous la direction de Mohamed Jemni & Christophe Cérin Plan Contexte Problématique Objectifs
Perspectives pour l entreprise. Desktop Cloud. JC Devos IBM IT Architect [email protected]. 2010 IBM Corporation
Perspectives pour l entreprise Desktop Cloud JC Devos IBM IT Architect [email protected] Principe technique Disposer d un poste de travail virtuel accessible par la plupart des terminaux disponibles Ce
Séminaire Partenaires Esri France 7-8 juin 2011 - Paris Cloud Computing Stratégie Esri
Séminaire Partenaires Esri France 7-8 juin 2011 - Paris Cloud Computing Stratégie Esri Gaëtan LAVENU Plan de la présentation Evolution des architectures SIG Qu'est ce que le Cloud Computing? ArcGIS et
10 tâches d administration simplifiées grâce à Windows Server 2008 R2. 1. Migration des systèmes virtuels sans interruption de service
10 tâches d administration simplifiées grâce à Windows Server 2008 R2 Faire plus avec moins. C est l obsession depuis plusieurs années de tous les administrateurs de serveurs mais cette quête prend encore
accompagner votre transformation IT vers le Cloud de confiance
accompagner votre transformation IT vers le Cloud de confiance Philippe LAPLANE Directeur du développement de la stratégie des produits cloud des tendances fortes structurent le marché croissance de la
FICHE DE PRÉSENTATION DE LA SOLUTION
FICHE DE PRÉSENTATION DE LA SOLUTION CA Private Cloud Accelerator for Vblock Platforms Avec quelle rapidité votre Cloud privé peut-il faire face à la demande croissante de services métier et rentabiliser
Livre blanc. La sécurité de nouvelle génération pour les datacenters virtualisés
Livre blanc La sécurité de nouvelle génération pour les datacenters virtualisés Introduction Ces dernières années, la virtualisation est devenue progressivement un élément stratégique clé pour le secteur
Séminaire Partenaires Esri France 6 et 7 juin 2012 Paris. ArcGIS et le Cloud. Gaëtan LAVENU
Séminaire Partenaires Esri France 6 et 7 juin 2012 Paris ArcGIS et le Cloud Gaëtan LAVENU Agenda Qu'attendent nos clients du Cloud Computing? Les solutions de Cloud ArcGIS dans le Cloud Quelles attendent
IBM Systems & Technology Recentrer l informatique sur l innovation plutôt que sur la maintenance
IBM Systems & Technology Recentrer sur l innovation plutôt que sur la maintenance Utiliser la plateforme IBM PureApplication System et ses modèles d expertise pour la consolidation, l optimisation, l innovation
Le Cloud au LIG? Pierre Neyron PimLIG - 2013-04-14
Le Cloud au LIG? Pierre Neyron PimLIG - 2013-04-14 Cloud = buzz word Employé à toutes les sauces... http://www.youtube.com/watch?v=rdkbo2qmyjq (pub SFR) tout le monde fait du cloud? Qui fait du cloud au
Sécurité des entrepôts de données dans le Cloud Un SaaS pour le cryptage des données issues d un ETL
Sécurité des entrepôts de données dans le Cloud Un SaaS pour le cryptage des données issues d un ETL Présenté par Hana Gara Kort Sous la direction de Dr Jalel Akaichi Maître de conférences 1 1.Introduction
Introduction. Gestion de la consommation énergétique. Contexte du cloud computing Instrumentation et contrôle
Ctrl-Green Projet ANR INFRA (2012-2015) Coordinateur Noel De Palma (UJF/LIG) Partenaires UJF/LIG, ENSEEIHT/IRIT, INRIA, Eolas Business&Decision, Scalagent Introduction Gestion de la consommation énergétique
Chapitre 4: Introduction au Cloud computing
Virtualisation et Cloud Computing Chapitre 4: Introduction au Cloud computing L'évolution d'internet Virt. & Cloud 12/13 2 Définition Le cloud computing est une technologie permettant de délocaliser les
Transformation vers le Cloud. Premier partenaire Cloud Builder certifié IBM, HP et VMware
Transformation vers le Cloud Premier partenaire Cloud Builder certifié IBM, HP et VMware 1 Sommaire Introduction Concepts Les enjeux Modèles de déploiements Modèles de services Nos offres Nos Références
Contrôle stochastique d allocation de ressources dans le «cloud computing»
Contrôle stochastique d allocation de ressources dans le «cloud computing» Jacques Malenfant 1 Olga Melekhova 1, Xavier Dutreilh 1,3, Sergey Kirghizov 1, Isis Truck 2, Nicolas Rivierre 3 Travaux partiellement
Cloud Computing : Généralités & Concepts de base
Cloud Computing : Généralités & Concepts de base Les 24èmes journées de l UR-SETIT 22 Février 2015 Cette oeuvre, création, site ou texte est sous licence Creative Commons Attribution - Pas d Utilisation
THÈSE. présentée à TÉLÉCOM PARISTECH. pour obtenir le grade de. DOCTEUR de TÉLÉCOM PARISTECH. Mention Informatique et Réseaux. par.
École Doctorale d Informatique, Télécommunications et Électronique de Paris THÈSE présentée à TÉLÉCOM PARISTECH pour obtenir le grade de DOCTEUR de TÉLÉCOM PARISTECH Mention Informatique et Réseaux par
Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services
69 Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services M. Bakhouya, J. Gaber et A. Koukam Laboratoire Systèmes et Transports SeT Université de Technologie de Belfort-Montbéliard
Qu est ce que le Cloud Computing?
Qu est ce que le Cloud Computing? Makhlouf Hadji Ingénieur de Recherche Qu est ce que le Cloud Computing? Agenda: Virtualisation des Ressources Introduction au Cloud Computing Caractéristiques du Cloud
Conception d une infrastructure «Cloud» pertinente
Conception d une infrastructure «Cloud» pertinente Livre blanc d ENTERPRISE MANAGEMENT ASSOCIATES (EMA ) préparé pour Avocent Juillet 2010 RECHERCHE EN GESTION INFORMATIQUE, Sommaire Résumé........................................................
Clouds/Big Data @ Inria. Frédéric Desprez [email protected]
Clouds/Big Data @ Inria Frédéric Desprez [email protected] May 20, 2013 Outline 1. Inria Strategy in Clouds 2. HPC, Clouds: Where within Inria? 3. Inria Large-Scale initiatives Introduction Cloud
Disponibilité 24-7/365
Buisness solution Technical solution Disponibilité 24-7/365 Presented by OSIsoft Comment utiliser LiveMeeting Télécharger du matériel additionnel Poser une question Audio et vidéo Copyrig h t 2014 OSIso
Vos outils de messagerie dans le Cloud avec LotusLive Notes. Session LOT12 Xavier Défossez - Lotus Technical Sales
Vos outils de messagerie dans le Cloud avec LotusLive Notes Session LOT12 Xavier Défossez - Lotus Technical Sales Agenda Le Cloud, pourquoi? Votre messagerie sur un nuage LotusLive Notes et son infrastructure
Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales
Retour d expérience en Astrophysique : utilisation du Cloud IaaS pour le traitement de données des missions spatiales Cécile Cavet cecile.cavet at apc.univ-paris7.fr Centre François Arago (FACe), Laboratoire
Génie logiciel (Un aperçu)
(Un aperçu) (sommerville 2010) Laurent Pérochon INRA URH 63122 St Genès Champanelle [email protected] Ensemble d activités conduisant à la production d un logiciel Sur un échantillon de
Planifier la migration des applications d entreprise dans le nuage
TM Planifier la migration des applications d entreprise dans le nuage Guide de vos options de migration : nuage privé et public, critères d évaluation des applications et meilleures pratiques de migration
Le Cercle Vertueux du Cloud Public
Le Cercle Vertueux du Cloud Public Le Cercle Vertueux du Cloud Public Le Cloud public rencontre un intérêt croissant auprès de tous les directeurs IT voulant planifier les stratégies informatiques de leur
Cisco Unified Computing Migration and Transition Service (Migration et transition)
Cisco Unified Computing Migration and Transition Service (Migration et transition) Le service Cisco Unified Computing Migration and Transition Service (Migration et transition) vous aide à migrer vos applications
Cloud Computing et Calcul Haute Performance (HPC High Performance C
Cloud Computing et Calcul Haute Performance (HPC High Performance Computing) LIG/UJF/INPG/CNRS/UPMF/INRIA 21 octobre, 2011, Formation-CNRS/ANGD Sommaire Généralité, Historique et Classification Modèle
Introduction aux applications réparties
Introduction aux applications réparties Noël De Palma Projet SARDES INRIA Rhône-Alpes http://sardes.inrialpes.fr/~depalma [email protected] Applications réparties Def : Application s exécutant
Infrastructures Parallèles de Calcul
Infrastructures Parallèles de Calcul Clusters Grids Clouds Stéphane Genaud 11/02/2011 Stéphane Genaud () 11/02/2011 1 / 8 Clusters - Grids - Clouds Clusters : assemblage de PCs + interconnexion rapide
Ordonnancement contrôlé de migrations à chaud
Ordonnancement contrôlé de migrations à chaud Vincent Kherbache, Éric Madelaine, Fabien Hermenier pré[email protected] INRIA Sophia Antipolis [email protected] Université Nice Sophia Antipolis,
Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain?
DOSSIER SOLUTION Solution CA Virtual Placement and Balancing Comment optimiser l utilisation des ressources Cloud et de virtualisation, aujourd hui et demain? agility made possible La solution automatisée
Cycle Innovation & Connaissance 12 petit déjeuner Mardi 15 mai 2012. Cloud Computing & Green IT : nuages ou éclaircies?
Cycle Innovation & Connaissance 12 petit déjeuner Mardi 15 mai 2012 Cloud Computing & Green IT : nuages ou éclaircies? Christophe CORNE, CEO de Systancia et dotgreen Marchés, technologies Une promesse
LA VIRTUALISATION. Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques. 18/01/2010.
Guillaume ANSEL M2 ISIDIS 2009-2010 / ULCO Dossier d étude sur la virtualisation LA VIRTUALISATION 18/01/2010 Etude de la virtualisation, ses concepts et ses apports dans les infrastructures informatiques.
Le Cloud Compu+ng modèle et évalua+on de performances
Le Cloud Compu+ng modèle et évalua+on de Par Valérie D. JUSTAFORT Candidate au Ph.D. École Polytechnique 28 Mars 2014 Sous la direction de M. Samuel PIERRE, Ph.D. École Polytechnique Et la co-direction
GRIDKIT: Pluggable Overlay Networks for Grid Computing
GRIDKIT: Pluggable Overlay Networks for Grid Computing Paul Grace, Geoff Coulson, Gordon Blair, Laurent Mathy, Wai Kit Yeung, Wei Cai, David Duce, Chris Cooper Computing Department, Lascaster University
Cloud Computing - L environnement concurrentiel. Points forts reformulés, issus d un récent article du Taneja Group, publié en septembre 2012.
Cloud Computing - L environnement concurrentiel. Points forts reformulés, issus d un récent article du Taneja Group, publié en septembre 2012. 2 Aider des Gens Comme Vous à faire le pas vers une réelle
Dynamic Computing Services solution de backup. White Paper Stefan Ruckstuhl
Dynamic Computing Services solution de backup White Paper Stefan Ruckstuhl Résumé pour les décideurs Contenu de ce White Paper Description de solutions de backup faciles à réaliser pour des serveurs virtuels
Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization)
Les cinq raisons majeures pour déployer SDN (Software-Defined Networks) et NFV (Network Functions Virtualization) Préparé par : Zeus Kerravala Les cinq raisons majeures pour déployer SDN et NFV NetworkWorld,
GOUVERNANCE DES IDENTITES ET DES ACCES ORIENTEE METIER : IMPORTANCE DE CETTE NOUVELLE APPROCHE
GOUVERNANCE DES IDENTITES ET DES ACCES ORIENTEE METIER : IMPORTANCE DE CETTE NOUVELLE APPROCHE RÉSUMÉ Depuis des années, les responsables de la sécurité de l information et les responsables opérationnels
Du Datacenter au Cloud Quels challenges? Quelles solutions? Christophe Dubos Architecte Microsoft
Du Datacenter au Cloud Quels challenges? Quelles solutions? Christophe Dubos Architecte Microsoft Microsoft et le Cloud Computing Quelle approche? Le Cloud, un accélérateur de la transformation Un modèle
Solution A La Gestion Des Objets Java Pour Des Systèmes Embarqués
International Journal of Engineering Research and Development e-issn: 2278-067X, p-issn: 2278-800X, www.ijerd.com Volume 7, Issue 5 (June 2013), PP.99-103 Solution A La Gestion Des Objets Java Pour Des
IT SERVICES BUSINESS STORAGE DATA AUDIT PARTNERSHIP INTEGRATOR SECURITY PLANNING PRIVATE AGILITY DYNAMIC PUBLIC TECHNOLOGY SOLUTIONS MANAGEMENT
ACTIVE BUSINESS TALENT ANSWERS DESIGN AUDIT HYBRID DRP PRIVATE SOFTWARE ENGINEERING AGILITY DYNAMIC DEPLOY SECURITY COMPUTE USER Introduction INGINIA PROVISIONING ORCHESTRATION WORKLOAD SYSTEMS QUALITY
Cycle Innovation & Connaissance 12 petit déjeuner Mardi 15 mai 2012. Cloud Computing & Green IT : nuages ou éclaircies?
Cycle Innovation & Connaissance 12 petit déjeuner Mardi 15 mai 2012 Cloud Computing & Green IT : nuages ou éclaircies? Jean-Claude TAGGER, professeur SKEMA Business School AGENDA Le Cloud : Quelques définitions
Regard sur cloud privé et hybridation
Regard sur cloud privé et hybridation Mai 2014 édito «faire rimer performances et gouvernance!» Toutes les études le confirment, une voie est en train de se dégager en matière de conception des infrastructures
Architectures informatiques dans les nuages
Architectures informatiques dans les nuages Cloud Computing : ressources informatiques «as a service» François Goldgewicht Consultant, directeur technique CCT CNES 18 mars 2010 Avant-propos Le Cloud Computing,
Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. [email protected]. white-paper-cluster_fr.sxw, Version 74 Page 1
Les clusters Linux 4 août 2004 Benoît des Ligneris, Ph. D. [email protected] white-paper-cluster_fr.sxw, Version 74 Page 1 Table des matières Introduction....2 Haute performance (High
Contributions à l expérimentation sur les systèmes distribués de grande taille
Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte
BIG Data et R: opportunités et perspectives
BIG Data et R: opportunités et perspectives Guati Rizlane 1 & Hicham Hajji 2 1 Ecole Nationale de Commerce et de Gestion de Casablanca, Maroc, [email protected] 2 Ecole des Sciences Géomatiques, IAV Rabat,
en version SAN ou NAS
tout-en-un en version SAN ou NAS Quand avez-vous besoin de virtualisation? Les opportunités de mettre en place des solutions de virtualisation sont nombreuses, quelque soit la taille de l'entreprise. Parmi
Système d administration autonome adaptable: application au Cloud
Système d administration autonome adaptable: application au Cloud Alain TCHANA - [email protected] IRIT/ENSEEIHT, Equipe SEPIA Directeur de thèse : Daniel HAGIMONT et Laurent BROTO Rapporteurs : Jean-Marc
Cloud Computing Stratégie IBM France
Cloud Computing Stratégie IBM France Daphné Alécian, Cloud Market Manager 1 2 2 Le Cloud Computing induit des changements majeurs en terme d usage et de comportement Définition : Caractéristiques : Un
Ne laissez pas le stockage cloud pénaliser votre retour sur investissement
Ne laissez pas le stockage cloud pénaliser votre retour sur investissement Préparé par : George Crump, analyste senior Préparé le : 03/10/2012 L investissement qu une entreprise fait dans le domaine de
Application de K-means à la définition du nombre de VM optimal dans un cloud
Application de K-means à la définition du nombre de VM optimal dans un cloud EGC 2012 : Atelier Fouille de données complexes : complexité liée aux données multiples et massives (31 janvier - 3 février
Qu est-ce que le «cloud computing»?
Qu est-ce que le «cloud computing»? Par Morand Studer eleven Octobre 2011 Qu est-ce que le «cloud computing»? - Morand Studer eleven Octobre 2011 www.eleven.fr 1 Aujourd hui, la démocratisation de l informatique
Hétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds
Hétérogénéité pour atteindre une consommation énergétique proportionnelle dans les clouds Mardi Laurent Lefèvre LIP Inria/ENS Lyon Jean-Marc Pierson, Georges Da Costa, Patricia Stolf IRIT Toulouse Hétérogénéité
agility made possible
DOSSIER SOLUTION CA VM:Manager Suite for Linux on System Z Comment réduire le coût et la complexité de la gestion et de la sécurisation des environnements z/vm et Linux on System z? agility made possible
Grid 5000 : Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau
: Administration d une infrastructure distribuée et développement d outils de déploiement et d isolation réseau Nicolas Niclausse - INRIA Sophia Antipolis Méditerranée - projet Aladdin Grid 5000 2 juillet
Impartition réussie du soutien d entrepôts de données
La force de l engagement MD POINT DE VUE Impartition réussie du soutien d entrepôts de données Adopter une approche globale pour la gestion des TI, accroître la valeur commerciale et réduire le coût des
Prise en compte d une politique de sécurité pour le déploiement dans le Cloud
Prise en compte d une politique de sécurité pour le déploiement dans le Cloud Rencontres : Calcul intensif et Sciences des données Timothée Ravier Doctorant au LIFO (INSA-CVL) et au LIPN (Paris XIII) Vichy,
Licences Windows Server 2012 R2 dans le cadre de la virtualisation
Résumé des licences en volume Licences Windows Server 2012 R2 dans le cadre de la virtualisation Ce résumé s'applique à tous les programmes de licences en volume Microsoft. Sommaire Synthèse... 2 Nouveautés
Equilibrage de charge pour les grilles de calcul : classe des tâches dépendantes et indépendantes.
Equilibrage de charge pour les grilles de calcul : classe des tâches dépendantes et indépendantes. Meriem Meddeber 1 et Belabbas Yagoubi 2 1 Université de Mascara, Faculté des sciences, Département des
La gestion des données de référence ou comment exploiter toutes vos informations
La gestion des données de référence ou comment exploiter toutes vos informations La tour de Babel numérique La gestion des données de référence (appelée MDM pour Master Data Management) se veut la réponse
S organiser pour le Cloud
S organiser pour le Cloud Apporter une valeur supplémentaire à l entreprise en optimisant l organisation des services informatiques pour le Cloud LIVRE BLANC VMWARE Sommaire Synthèse.... 3 Contexte....
Déterminer les enjeux du Datacenter
Déterminer les enjeux du Datacenter OPEX 75% CAPEX 25% Nouvelle génération d infrastructure Systèmes intégrés Hybridation Capacity planning DCIM Réduction des risques Organisation opérationnelle IDC Visit
Big Data, gros trafic et consommation
Big Data, gros trafic et consommation l optimisation à la rescousse des réseaux infonuagiques Brunilde Sansò Professeur titulaire et Federico Larumbe étudiant de Ph.D. Laboratoire de Réseaux à Large Bande
Cloud et SOA La présence du Cloud révolutionne-t-elle l approche SOA?
Cloud et SOA La présence du Cloud révolutionne-t-elle l approche SOA? Jean-Marc Pierson [email protected] IRIT, Université de Toulouse Agenda! Le Cloud! Le SOA! Quelle différence!?! Cloud et SOA! Mise en
