GPFS. General Parallel File System. http://www-142.ibm.com/software/products/fr/fr/software. 2011 IBM Corporation



Documents pareils
GPFS. General Parallel File System. Philippe Hermès IBM System & Technology Group IBM Corporation

IBM PowerSC. Une sécurité étendue et à la carte. Client Technical Sales IBM Corporation

Quick Start Guide This guide is intended to get you started with Rational ClearCase or Rational ClearCase MultiSite.

SAP Best Practices. Commande en ligne pour les clients et les partenaires SAP

en SCÈNE RATIONAL Rational Démonstration SDP : automatisation de la chaîne de développement Samira BATAOUCHE sbataouche@fr.ibm.com

Domino Attachment and Object Service (DAOS)

Tom Pertsekos. Sécurité applicative Web : gare aux fraudes et aux pirates!

Les dix raisons pour lesquelles les PME choisissent SAP pour transformer leur entreprise. Copyright/Trademark

L offre Stockage et serveurs System x / BladeCenter F.Libier, Business Partner Technical Manager

Notice Technique / Technical Manual

Cours 13. RAID et SAN. 2004, Marc-André Léger

Package Contents. System Requirements. Before You Begin

Instructions Mozilla Thunderbird Page 1

Intel Corporation Nicolas Biguet Business Development Manager Intel France

SunATM 4.0 Release Notes

ITIL et les outils. À l ordre du jour. senté par Johanne L HeureuxL. Consultante. Mise en contexte Quelques exemples.

..seulement 5% des serveurs x86 sont virtualisés!

Règles et paramètres d'exploitation de Caparmor 2 au 11/12/2009. Pôle de Calcul Intensif pour la mer, 11 Decembre 2009

Protection de l Investissement Virtualisation, Efficacité énergétique

Cartographie du SI pour alimenter la CMDB

Protection des données en environnement Windows

SUGARCRM Sugar Open Source Guide d Installation de French SugarCRM Open Source Version 4.2

SAP Runs SAP Reporting Opérationnel & BI avec HANA et SAP Analytics. Pierre Combe, Enterprise Analytics Juin, 2015

SERVEUR DÉDIÉ DOCUMENTATION

SAS AN Spécialiste en architecture de systèmes IBM POWER /AIX & Stockage PROFIL EXPÉRIENCE PROFESSIONNELLE

HSCS 6.4 : mieux appréhender la gestion du stockage en environnement VMware et service de fichiers HNAS Laurent Bartoletti Product Marketing Manager

en version SAN ou NAS

Bénéficiez d'un large choix d'applications novatrices et éprouvées basées sur les systèmes d'exploitation i5/os, Linux, AIX 5L et Microsoft Windows.

Clients et agents Symantec NetBackup 7

Fiche technique: Sauvegarde et restauration Symantec Backup Exec 12.5 for Windows Servers La référence en matière de protection des données Windows

Le stockage unifié pour réduire les coûts et augmenter l'agilité

Logitech Tablet Keyboard for Windows 8, Windows RT and Android 3.0+ Setup Guide Guide d installation

vbladecenter S! tout-en-un en version SAN ou NAS

What s New. Sun ONE Application Server. Version 7, Enterprise Edition

Engineered for Business: Oracle Hardware for Oracle Database

DOCUMENTATION - FRANCAIS... 2

UC² : Le poste de travail du futur (disponible aujourd hui)

INSTRUMENTS DE MESURE SOFTWARE. Management software for remote and/or local monitoring networks

Un système intégré totalement redondant

Grandes tendances et leurs impacts sur l acquisition de produits et services TI.

Innovative BI with SAP Jean-Michel JURBERT D. de Marché BI, HANA, BIG DATA _ SAP France

Sun Java SystemWeb Server 7.0 Documentation Center

Consolidation. Grid Infrastructure avec la 11gR2

Automation Engine. System Requirements. Version: Date: Automic Software GmbH

Nouveautés Symantec Backup Exec 11d pour serveurs Windows

Cedric Dumoulin (C) The Java EE 7 Tutorial

Réseaux sociaux Pourquoi et comment?

Mise en oeuvre TSM 6.1

Oracle FS Data Protection Manager. Release Notes. Part Number E Oracle FS Data Protection Manager release 3.5.

CA ARCserve r16 devance Veeam Backup and Replication 6.5 dans le domaine de la protection virtuelle

EXALOGIC ELASTIC CLOUD MANAGEMENT

VMware : De la Virtualisation. au Cloud Computing

Cluster High Availability. Holger Hennig, HA-Cluster Specialist

Solaris Server Intranet Extension 1.0 Licensing Guide

Symantec Backup Exec 11d pour serveurs Windows Options/Agents

DOCUMENTATION - FRANCAIS... 2

ORACLE EXADATA DATABASE MACHINE X2-8

WORKSHOP OBIEE 11g (version ) PRE-REQUIS:

Gérer la volumétrie croissante des données et besoins d'infrastructure par un archivage intelligent. Symantec Enterprise Vault

Séminaire Partenaires Esri France 6 et 7 juin 2012 Paris. ArcGIS et le Cloud. Gaëtan LAVENU

Guide de récupération de Windows Server 2003 R2 pour serveurs Sun x64

GIGABIT PCI DESKTOP ADAPTER DGE-530T. Quick Installation Guide+ Guide d installation+

Valorisez vos actifs logiciels avec Rational Asset Manager. Jean-Michel Athané, Certified IT Specialist IBM Rational Software

Stratégie d externalisation des services pour les établissements

Plan. Department of Informatics

Déployer Linux en toute sérénité. Francois Chazalon Directeur Marketing

ORACLE EXADATA DATABASE MACHINE X2-2

Guide d installation de SugarCRM Open Source version 4.5.1

Instructions pour mettre à jour un HFFv2 v1.x.yy v2.0.00

INTRODUCTION AUX SGBD/R LUW

Contents Windows

Tout le monde parle du Cloud Computing, Mais qui offre une solution complète? Copyright IBM Corporation, 2009 All Rights Reserved

Conférence Bales II - Mauritanie. Patrick Le Nôtre. Directeur de la Stratégie - Secteur Finance Solutions risques et Réglementations

AVOB sélectionné par Ovum

Contrôle d'accès Access control. Notice technique / Technical Manual

CA ARCserve r16 devance Symantec Backup Exec 2012

THÈSE. présentée à TÉLÉCOM PARISTECH. pour obtenir le grade de. DOCTEUR de TÉLÉCOM PARISTECH. Mention Informatique et Réseaux. par.

Un exemple de cloud au LUPM : Stratuslab

Optimisez la gestion de vos projets IT avec PPM dans le cadre d une réorganisation. SAP Forum, May 29, 2013

SCC / QUANTUM Kickoff 2015 Data Protection Best Practices

IBM Tivoli Monitoring, version 6.1

Paxton. ins Net2 desktop reader USB

StorageTek Tape Analytics

Dynamiser et optimiser votre IT avec la Virtualisation du poste

CA ARCserve Family of Solutions Pricing and Licensing

L infrastructure Sécurité de Microsoft. Active Directory RMS. Microsoft IAG

ADMINISTRATION EXADATA

Symantec Backup Exec 12 for Windows Servers

Une solution de stockage VDI unifiée, flexible et disponible pour vos utilisateurs

Symantec Backup Exec 11d

Jean-Philippe VIOLET Solutions Architect

EMC Forum EMC ViPR et ECS : présentation des services software-defined

Utiliser une WebCam. Micro-ordinateurs, informations, idées, trucs et astuces

Archived Content. Contenu archivé

Virtualisation CITRIX, MICROSOFT, VMWARE OLIVIER D.

L état de l ART. Évolution récente des technologies. Denis Szalkowski Formateur Consultant

IBM Tivoli Compliance Insight Manager

Transcription:

GPFS General Parallel File System http://www-142.ibm.com/software/products/fr/fr/software 2011 IBM Corporation

Agenda Problématique Historique GPFS : Le système de fichiers Qui utilise GPFS aujourd hui? Mise en œuvre & Service associé Support - Formation & Documentation 2 2011 IBM Corporation

Problématique 3 2011 IBM Corporation

Problématique D une façon fiable, partager et échanger simplement des fichiers entre différentes applications et différents OS 4 2011 IBM Corporation

IBM General Parallel File System (GPFS ) History and evolution GPFS 3.4 introduces improvements in performance, scalability, migration and diagnostics and enhanced Windows high performance computing (HPC) server support, including support for homogenous Windows clusters. Video streaming Tiger Shark Real time Streaming Read Perf Wide stripe 1995 HPC First called GPFS GPFS General File Serving Standards Portable operating system interface (POSIX) semantics -Large block Directory and Small file perf Data management 1998 Virtual Tape Server (VTS) Linux Clusters (Multiple architectures) IBM AIX Loose Clusters 2002 GPFS 2.1-2.3 HPC Research Visualization Digital Media Seismic Weather exploration Life sciences 32 bit /64 bit Inter-op (IBM AIX & Linux) GPFS Multicluster GPFS over wide area networks (WAN) Large scale clusters thousands of nodes 2005 GPFS 3.1-3.2 Information lifecycle management (ILM) Storage Pools File sets Policy Engine Ease of administration Multiplenetworks/ RDMA Distributed Token Management Faster failover Multiple NSD servers NFS v4 Support Small file performance 2006-7 GPFS 3.3 Restricted Admin Functions Improved installation New license model Improved snapshot and backup Improved ILM policy engine 2009 GPFS 3.4 Enhanced Windows cluster support - Homogenous Windows Server Performance and scaling improvements Enhanced migration and diagnostics support 2010 5 Copyright IBM Corporation 2008 1-5 2011 IBM Corporation

Le système de fichier GPFS PPC64 x64 x86 6 2011 IBM Corporation

Qu est-ce que GPFS? GPFS (General Parrallel File System) est la solution IBM de système de fichiers partagé parallèle pour les clusters. Ses fonctionnalités en font un produit fiable et performant pour toutes les architectures nécessitant un partage de données. Ce logiciel est disponible sur tous les serveurs IBM ayant pour système d exploitation AIX, Linux ou Windows. Cluster: 2 à 8000+ serveurs, réseau performant fiable, administré comme un ensemble. Serveurs GPFS Système de fichiers partagé: tous les serveurs accèdent aux données et metadonnées par une interface de type disque. Parallèle: les accès aux données et metadonnées se font en parallèle de tous les serveurs vers tous les disques. 7 2011 IBM Corporation

GPFS Fonctionnalités et Domaines d utilisation Une vision unique partagée du système de fichiers. Une interface au Standard POSIX. Haute performance Grande capacité de stockage Très haut débit Haute disponibilité Tolérance de panne Gestion de configuration dynamique (ajout, retrait, remplacement de disques, de serveurs) Domaines d utilisation Clusters haute performance scientifiques & commerciaux. Consolidation de serveurs (de fichiers, de courrier, internet ) Multimedia Bases de données 8 2011 IBM Corporation

Ce que GPFS n est pas Pas un système de fichiers client-serveur comme NFS ou CIFS: pas de goulot d étranglement d un serveur unique, pas de surcouche de protocole dans le transfert de données. Clients Réseau Serveur Metadonnées Serveur de metadonnées Disques Données Disques 9 2011 IBM Corporation

3 exemples de configuration!"# $ 10 2011 IBM Corporation

Les forces de GPFS Grande capacité : Regroupe de nombreux disques ou RAIDs en un seul système de fichiers Débit élevé pour un fichier seul striping sur un grand nombre de disques Taille de bloc élevée 16 K à 4 Mo Plusieurs serveurs écrivent en parallèle Haute disponibilité Serveurs: reconstruction journalisée bascule cohérente sur serveur de secours Données: RAID ou réplication Admin. dynamique (ajout/retrait/remplacement de disques ou serveurs sans démontage du système de fichiers) Image unique, interface au standard POSIX locks distribués sur une syntaxe lecture/écriture standard 11 2011 IBM Corporation

GPFS Disponibilité Un daemon assure la surveillance des serveurs et la détection de panne Un journal différent sur chaque serveur pour réparer plus vite en cas d anomalie Une redondance réseau sur AIX par EtherChannel, sur Linux par bonding Chaque disque est accessible depuis deux serveurs au moins Performance Accès simultanés de plusieurs serveurs à un fichier (MPIIO ) Répartition de la charge sur serveurs et disques Permet de manipuler de grandes quantités de données 12 2011 IBM Corporation

GPFS Intégrité des données Gestion des accès par jeton Plusieurs chemins pour accéder la même donnée Possibilité de mettre en place une réplication Pour données et métadonnées, certains ou tous les fichiers Les copies sont dans des «failure group» distincts Quorum : pas de risque d accès simultanés incohérents si le cluster se coupe en deux ou plus Flexibilité Ajout dynamique de disques, de serveurs Changement dynamique du nombre d inodes S administre depuis n importe quel serveur, diffusion automatique à tous les serveurs Possibilité de créer une(plusieurs!) copie logique, ou snapshot, pour un système de fichiers GPFS, 13 2011 IBM Corporation

Snapshots (ou Flashcopy) Snapshot: copie logique en lecture seule du système de fichiers à un instant donné Pour quoi faire : Sauvegarde: sauvegarde cohérente à l instant t Correction d erreur: accès en ligne aux fichiers dans leur état au moment du snapshot Copy-on-write : le fichier n occupe de l espace dans le snapshot qu au moment où il est modifié ou supprimé. Accès au travers de sous répertoires.snapshots à la racine /gpfs/.snapshots/snap1 état d il y a huit jours /gpfs/.snapshots/snap2 état d hier On peut conserver jusqu à 256 snapshots d un système de fichiers 14 2011 IBM Corporation

GPFS ILM (Information Lifecycle Management ) «Storage pool» (groupe de luns de même performance) «Fileset» (sous-arborescence dans un système de fichiers) «Policies» (règles de placement et de migrationdes fichiers dans les «storage pool») Gestion simple du placement des données, (âge, nom du fichier ) La politique de gestion peut être exécutée en parallèle sur l ensemble des nœuds La migration des données est automatique et transparente pour le client Gestion du placement des données selon les types de disques Langage de type SQL RULE migration to system pool MIGRATE FROM POOL sp1 TO POOL system WHERE NAME LIKE %file% 15 2011 IBM Corporation

Haute disponibilité Serveur 1 Serveur 2 LAN SAN Serveur 1 tiebreakerdisk GPFS continue sur le serveur 1, dont le nom figure sur le tiebreakerdisk comme «lease manager». 16 2011 IBM Corporation

Haute disponibilité Serveur 1 Démontage De GPFS sur Le serveur 1 LAN Serveur 2 SAN Serveur 2 TiebreakerDisk GPFS continue sur le serveur qui a été élu «lease manager» sur le tiebreakerdisk 17 2011 IBM Corporation

Haute disponibilité GPFS continue sur les deux serveurs, sans Réplication. Le failure group 3 garantit l existence de plus de la moitié des FSDs. On peut mettre le tiebreakerdisk dessus. LAN SAN Failure group 1 Failure group 3 DescOnly Filesystem descripter Quorum Réplication Failure group 2 18 2011 IBM Corporation

Haute disponibilité Serveur 3 GPFS continue sur le Serveur 1 Failure group 3 DescOnly Serveur 1 Serveur 2 LAN SAN Failure group 1 Failure group 2 19 2011 IBM Corporation

Haute disponibilité Serveur 3 GPFS continue sur les deux serveurs, plus de réplication. Failure group 3 DescOnly Serveur 1 Serveur 2 LAN SAN Failure group 1 Failure group 2 20 2011 IBM Corporation

Haute disponibilité Serveur 3 GPFS continue sur le serveur 2 plus de réplication. Failure group 3 DescOnly Serveur 1 LAN Serveur 2 SAN Failure group 1 Failure group 2 21 2011 IBM Corporation

Haute disponibilité Serveur 3 GPFS continue à fonctionner sur le serveur 1, qui voit le serveur 3. Failure group 3 DescOnly Serveur 1 LAN GPFS démonté serveur isolé. Serveur 2 SAN Failure group 1 Failure group 2 22 2011 IBM Corporation

Haute Disponibilité Server 3 Serveur 1 accède au failure group 2 au travers du réseau Failure group 3 DescOnly Serveur 1 Serveur 2 LAN SAN Failure group 1 Failure group 2 23 2011 IBM Corporation

Règles de quorum 3 serveurs avec l attribut quorum GPFS continue à fonctionner sur les serveurs qui voient au moins 2 serveurs ayant l attribut quorum 2 à 8 serveurs avec l attribut quorum et 1 ou 3 tiebreakerdisks GPFS continue à fonctionner sur les serveurs qui voient le serveur quorum élu «lease manager» dont le nom figure sur les tiebreakerdisks. Par sécurité, on peut mettre 3 tiebreakerdisks, GPFS continue à fonctionner sur tous les serveurs qui voient la majorité des tiebreakerdisks et le serveur quorum élu «lease manager». Les tiebreakerdisks doivent être reliés par SCSI ou SAN aux serveurs ayant l attribut quorum. 24 2011 IBM Corporation

Résumons nous! Qu est ce que GPFS? Hier GPFS était un système de fichiers parallèle à haute performance Aujourd hui, GPFS est un système de fichiers cluster à haute performance (incluant aussi le parallélisme ) Demain GPFS est un système de fichiers d entreprise avec de hautes performances 25 2011 IBM Corporation

Qui utilise GPFS aujourd hui? 26 2011 IBM Corporation

Qui utilise GPFS aujourd hui? GPFS est un produit mature avec une présence bien établie sur le marché. Il est disponible depuis 1998 après une phase de développement et de recherche commencée en 1991. Aviation et Automobile Banque et Finance Bio-informatiques and Sciences de la Vie Défense Média numérique EDA Laboratoires Nationaux Pétrole Université Modélisation climatique IBM 27 2011 IBM Corporation

Government Laboratories! ""##$" %# &'' ()*" + %#, +- Army Corps of Engineers Application: hydrological modeling 2 256-node SPs Using GPFS to store model data, output visualization data 28 2011 IBM Corporation

Géophysique Capture, stock et analyse des données de sondage sismique, Les données saisies à bord, Analyse ultérieure (hautement parallèle, plusieurs téraoctets de systèmes de fichiers) Archives / récupération à partir de bandes Plusieurs entreprises géophysiques utilisent GPFS pour leurs traitements sismique 29 2011 IBM Corporation

Ingénierie de la conception Constructeur d avions Utilisation de GPFS pour stocker les quantités de données importantes liées à la modélisation des structures et à leurs analyses GPFS permet le partage des modèles et des données par l ensemble des noeuds 30 2011 IBM Corporation

TV5 Monde!!!"""" # " $ % # $% & '"" % $ & () " *+)*+$,-,$. " //$///0 1( 5 mn par an ) 31 2011 IBM Corporation

Solution IBM SWLAN 1 CISCO 6500 SWLAN 2 CISCO 6500 HMC1 Serveur NIM p520 xseries Administration X3 Nœuds GPFS p520 (x6) HMC2 Réseau Ethernet Réseau GPFS Réseau Admin Réseau Hardware 1 Réseau Hardware 2 Réseau SAN SWSAN 1 CISCO MDS 9500 SWSAN 2 CISCO MDS 9500 CtrlA x4 x4 x4 x4 CtrlB CtrlA CtrlB Baie DS4800 Racks EXP710 X28 x2 x2 x2 x2 x2 x2 x2 x2 x2 x2 x2 x2 CtrlA CtrlB CtrlA CtrlB CtrlA CtrlB CtrlA CtrlB CtrlA CtrlB CtrlA CtrlB Controleurs DS4500 + Racks EXP100 X 78 Baie DS4800 Racks EXP710 X28 32 2011 IBM Corporation

ASC (Advanced Simulation and Computing) 2005 100 teraflops 12000 POWER5 Lawrence Livermore National Laboratories en Californie http://www.top500.org/system/8128 https://asc.llnl.gov/computing_resources/purple/ 33 2011 IBM Corporation http://www.top500.org/2007_overview_recent_supercomputers/ibm_eserver_p575

BlueGene/ (2004 pour BlueGene/L, 2007 pour BlueGene/P) 2007 596 teraflops (crête) 130712 PowerPC Lawrence Livermore National Laboratories en Californie http://www.top500.org/system/8968 http://www-304.ibm.com/systems/support/bluegene/index.html 34 2011 IBM Corporation http://www.top500.org/2007_overview_recent_supercomputers/ibm_bluegene_l_p

IDRIS - BlueGene/P 2008 139 teraflops (crête) 40960 PowerPC (10 racks) 400To Région Parisienne http://www.idris.fr/ibm2008/index.html 35 2011 IBM Corporation

SONAS Scale Out Network Attached Server Produit IBM incluant : - Un cluster GPFS linux sous RedHat avec un réseau interne InfiniBand, vu comme un serveur NAS pour windows et Unix - Une interface unique pour la configuration et le contrôle - Un service de surveillance à distance et de reprise - Répartition de charge - Stockage sur des supports adaptés performance/coût (tiering) - Utilisé par IBM pour sa solution de «storage cloud» http://www-03.ibm.com/systems/storage/network/sonas/ 36 2011 IBM Corporation

SONAS 37 2011 IBM Corporation

Mise en œuvre et service associé 38 2011 IBM Corporation

Mise en œuvre & Service associé IBM vous accompagne dans la découverte du produit Cours au catalogue IBM Prêt du logiciel avec accompagnement forfaitaire sur la mise en œuvre Un expert GPFS - Discute avec vous de votre projet - Propose une architecture - Installe une version de prêt du logiciel - Le configure avec transfert de connaissances d une demi-journée - Répond à vos questions - Vous remet un document décrivant l'installation Ensuite la plupart des clients sont totalement autonomes! 39 2011 IBM Corporation

Support, Formation & Documentation 40 2011 IBM Corporation

Support GPFS GPFS est un logiciel IBM vendu avec un «passeport avantage» : Correctifs en accès libre sur internet Un forum public de discussion http://www.ibm.com/developerworks/forums/forum.jspa?forumid=479 Le passeport avantage offre : l ouverture d'incidents 24/24 7/7 le support et réponse aux questions l accès aux nouvelles versions 41 2011 IBM Corporation

Formation GPFS 42 2011 IBM Corporation

Documentations & liens http://www-03.ibm.com/systems/clusters/software/gpfs/index.html http://www.almaden.ibm.com/storagesystems/projects/gpfs/ http://en.wikipedia.org/wiki/gpfs Doc : http://publib.boulder.ibm.com/infocenter/clresctr/vxrx/topic/com.ibm.cluster.gpfs.doc/gpfsbooks.html FAQ : http://publib.boulder.ibm.com/infocenter/clresctr/vxrx/index.jsp?topic=/com.ibm.cluster.gpfs.doc/gpfs_faqs/gpfs_faqs.html http://www.redbooks.ibm.com 03/2008 A Guide to the IBM Clustered Network File System, (REDP-4400-00) 02/2008 Deploying Oracle RAC 10g on AIX Version 5 with GPFS (SG24-7541-00).. 10/2005 Configuration and Tuning GPFS for Digital Media Environments (TIPS0540).. 05/1998 GPFS: A Parallel File System (SG24-5165-00) 43 2011 IBM Corporation

WebSphere MQ & GPFS http://www-01.ibm.com/support/docview.wss?uid=swg21392025 «Testing of WebSphere MQ with IBM's General Parallel File System (GPFS) has been more extensive and no problems have been reported to date.» http://www-01.ibm.com/support/docview.wss?uid=swg21433474 «WebSphere MQ V7.0.1 introduces multi-instance queue managers. For this you will need a shared file system on networked storage, such as a NAS, or a cluster file system, such as IBM's General Parallel File System (GPFS). Shared file systems must provide data write integrity, guaranteed exclusive access to files and release locks on failure to work reliably with WebSphere MQ.» 44 2011 IBM Corporation

GPFS v3.4 45 2011 IBM Corporation

M E R C I! Merci French Korean Arabic Hebrew Obrigado Brazilian Portuguese Grazie Italian Hindi Traditional Chinese go raibh maith agat Gaelic Thank You English Gracias Spanish Russian Japanese Tamil Simplified Chinese Danke German Thai 46 2011 IBM Corporation

Special notices (cont.) The following terms are registered trademarks of International Business Machines Corporation in the United States and/or other countries: AIX, AIX/L, AIX/L (logo), AIX 6 (logo), alphaworks, AS/400, BladeCenter, Blue Gene, Blue Lightning, C Set++, CICS, CICS/6000, ClusterProven, CT/2, DataHub, DataJoiner, DB2, DEEP BLUE, developerworks, DirectTalk, Domino, DYNIX, DYNIX/ptx, e business (logo), e(logo)business, e(logo)server, Enterprise Storage Server, ESCON, FlashCopy, GDDM, i5/os, i5/os (logo), IBM, IBM (logo), ibm.com, IBM Business Partner (logo), Informix, IntelliStation, IQ-Link, LANStreamer, LoadLeveler, Lotus, Lotus Notes, Lotusphere, Magstar, MediaStreamer, Micro Channel, MQSeries, Net.Data, Netfinity, NetView, Network Station, Notes, NUMA-Q, OpenPower, Operating System/2, Operating System/400, OS/2, OS/390, OS/400, Parallel Sysplex, PartnerLink, PartnerWorld, Passport Advantage, POWERparallel, Power PC 603, Power PC 604, PowerPC, PowerPC (logo), Predictive Failure Analysis, pseries, PTX, ptx/admin, Quick Place, Rational, RETAIN, RISC System/6000, RS/6000, RT Personal Computer, S/390, Sametime, Scalable POWERparallel Systems, SecureWay, Sequent, ServerProven, SpaceBall, System/390, The Engines of e-business, THINK, Tivoli, Tivoli (logo), Tivoli Management Environment, Tivoli Ready (logo), TME, TotalStorage, TURBOWAYS, VisualAge, WebSphere, xseries, z/os, zseries. The following terms are trademarks of International Business Machines Corporation in the United States and/or other countries: Advanced Micro-Partitioning, AIX 5L, AIX PVMe, AS/400e, Calibrated Vectored Cooling, Chiphopper, Chipkill, Cloudscape, DataPower, DB2 OLAP Server, DB2 Universal Database, DFDSM, DFSORT, DS4000, DS6000, DS8000, e-business (logo), e-business on demand, EnergyScale, Enterprise Workload Manager, eserver, Express Middleware, Express Portfolio, Express Servers, Express Servers and Storage, General Purpose File System, GigaProcessor, GPFS, HACMP, HACMP/6000, IBM Systems Director Active Energy Manager, IBM TotalStorage Proven, IBMLink, IMS, Intelligent Miner, iseries, Micro-Partitioning, NUMACenter, On Demand Business logo, POWER, PowerExecutive, PowerVM, PowerVM (logo), Power Architecture, Power Everywhere, Power Family, POWER Hypervisor, Power PC, Power Systems, Power Systems (logo), Power Systems Software, Power Systems Software (logo), PowerPC Architecture, PowerPC 603, PowerPC 603e, PowerPC 604, PowerPC 750, POWER2, POWER2 Architecture, POWER3, POWER4, POWER4+, POWER5, POWER5+, POWER6, POWER6+, pure XML, Quickr, Redbooks, Sequent (logo), SequentLINK, Server Advantage, ServeRAID, Service Director, SmoothStart, SP, System i, System i5, System p, System p5, System Storage, System z, System z9, S/390 Parallel Enterprise Server, Tivoli Enterprise, TME 10, TotalStorage Proven, Ultramedia, VideoCharger, Virtualization Engine, Visualization Data Explorer, Workload Partitions Manager, X-Architecture, z/architecture, z/9. A full list of U.S. trademarks owned by IBM may be found at: http://www.ibm.com/legal/copytrade.shtml. The Power Architecture and Power.org wordmarks and the Power and Power.org logos and related marks are trademarks and service marks licensed by Power.org. UNIX is a registered trademark of The Open Group in the United States, other countries or both. Linux is a trademark of Linus Torvalds in the United States, other countries or both. Microsoft, Windows, Windows NT and the Windows logo are registered trademarks of Microsoft Corporation in the United States, other countries or both. Intel, Itanium, Pentium are registered trademarks and Xeon is a trademark of Intel Corporation or its subsidiaries in the United States, other countries or both. AMD Opteron is a trademark of Advanced Micro Devices, Inc. Java and all Java-based trademarks and logos are trademarks of Sun Microsystems, Inc. in the United States, other countries or both. TPC-C and TPC-H are trademarks of the Transaction Performance Processing Council (TPPC). SPECint, SPECfp, SPECjbb, SPECweb, SPECjAppServer, SPEC OMP, SPECviewperf, SPECapc, SPEChpc, SPECjvm, SPECmail, SPECimap and SPECsfs are trademarks of the Standard Performance Evaluation Corp (SPEC). NetBench is a registered trademark of Ziff Davis Media in the United States, other countries or both. AltiVec is a trademark of Freescale Semiconductor, Inc. Cell Broadband Engine is a trademark of Sony Computer Entertainment Inc. InfiniBand, InfiniBand Trade Association and the InfiniBand design marks are trademarks and/or service marks of the InfiniBand Trade Association. Other company, product and service names may be trademarks or service marks of others. Revised January 15, 2008 47 2011 IBM Corporation

Notes on benchmarks and values The IBM benchmarks results shown herein were derived using particular, well configured, development-level and generally-available computer systems. Buyers should consult other sources of information to evaluate the performance of systems they are considering buying and should consider conducting application oriented testing. For additional information about the benchmarks, values and systems tested, contact your local IBM office or IBM authorized reseller or access the Web site of the benchmark consortium or benchmark vendor. IBM benchmark results can be found in the IBM Power Systems Performance Report at http://www.ibm.com/systems/p/hardware/system_perf.html. All performance measurements were made with AIX or AIX 5L operating systems unless otherwise indicated to have used Linux. For new and upgraded systems, AIX Version 4.3, AIX 5L or AIX 6 were used. All other systems used previous versions of AIX. The SPEC CPU2006, SPEC2000, LINPACK, and Technical Computing benchmarks were compiled using IBM's high performance C, C++, and FORTRAN compilers for AIX 5L and Linux. For new and upgraded systems, the latest versions of these compilers were used: XL C Enterprise Edition V7.0 for AIX, XL C/C++ Enterprise Edition V7.0 for AIX, XL FORTRAN Enterprise Edition V9.1 for AIX, XL C/C++ Advanced Edition V7.0 for Linux, and XL FORTRAN Advanced Edition V9.1 for Linux. The SPEC CPU95 (retired in 2000) tests used preprocessors, KAP 3.2 for FORTRAN and KAP/C 1.4.2 from Kuck & Associates and VAST-2 v4.01x8 from Pacific-Sierra Research. The preprocessors were purchased separately from these vendors. Other software packages like IBM ESSL for AIX, MASS for AIX and Kazushige Goto s BLAS Library for Linux were also used in some benchmarks. For a definition/explanation of each benchmark and the full list of detailed results, visit the Web site of the benchmark consortium or benchmark vendor. TPC http://www.tpc.org SPEC http://www.spec.org LINPACK http://www.netlib.org/benchmark/performance.pdf Pro/E http://www.proe.com GPC http://www.spec.org/gpc NotesBench http://www.notesbench.org VolanoMark http://www.volano.com STREAM http://www.cs.virginia.edu/stream/ SAP http://www.sap.com/benchmark/ Oracle Applications http://www.oracle.com/apps_benchmark/ PeopleSoft - To get information on PeopleSoft benchmarks, contact PeopleSoft directly Siebel http://www.siebel.com/crm/performance_benchmark/index.shtm Baan http://www.ssaglobal.com Microsoft Exchange http://www.microsoft.com/exchange/evaluation/performance/default.asp Veritest http://www.veritest.com/clients/reports Fluent http://www.fluent.com/software/fluent/index.htm TOP500 Supercomputers http://www.top500.org/ Ideas International http://www.ideasinternational.com/benchmark/bench.html Storage Performance Council http://www.storageperformance.org/results Revised January 15, 2008 48 2011 IBM Corporation

Notes on HPC benchmarks and values The IBM benchmarks results shown herein were derived using particular, well configured, development-level and generally-available computer systems. Buyers should consult other sources of information to evaluate the performance of systems they are considering buying and should consider conducting application oriented testing. For additional information about the benchmarks, values and systems tested, contact your local IBM office or IBM authorized reseller or access the Web site of the benchmark consortium or benchmark vendor. IBM benchmark results can be found in the IBM Power Systems Performance Report at http://www.ibm.com/systems/p/hardware/system_perf.html. All performance measurements were made with AIX or AIX 5L operating systems unless otherwise indicated to have used Linux. For new and upgraded systems, AIX Version 4.3 or AIX 5L were used. All other systems used previous versions of AIX. The SPEC CPU2000, LINPACK, and Technical Computing benchmarks were compiled using IBM's high performance C, C++, and FORTRAN compilers for AIX 5L and Linux. For new and upgraded systems, the latest versions of these compilers were used: XL C Enterprise Edition V7.0 for AIX, XL C/C++ Enterprise Edition V7.0 for AIX, XL FORTRAN Enterprise Edition V9.1 for AIX, XL C/C++ Advanced Edition V7.0 for Linux, and XL FORTRAN Advanced Edition V9.1 for Linux. The SPEC CPU95 (retired in 2000) tests used preprocessors, KAP 3.2 for FORTRAN and KAP/C 1.4.2 from Kuck & Associates and VAST-2 v4.01x8 from Pacific-Sierra Research. The preprocessors were purchased separately from these vendors. Other software packages like IBM ESSL for AIX, MASS for AIX and Kazushige Goto s BLAS Library for Linux were also used in some benchmarks. For a definition/explanation of each benchmark and the full list of detailed results, visit the Web site of the benchmark consortium or benchmark vendor. SPEC http://www.spec.org LINPACK http://www.netlib.org/benchmark/performance.pdf Pro/E http://www.proe.com GPC http://www.spec.org/gpc STREAM http://www.cs.virginia.edu/stream/ Veritest http://www.veritest.com/clients/reports Fluent http://www.fluent.com/software/fluent/index.htm TOP500 Supercomputers http://www.top500.org/ AMBER http://amber.scripps.edu/ FLUENT http://www.fluent.com/software/fluent/fl5bench/index.htm GAMESS http://www.msg.chem.iastate.edu/gamess GAUSSIAN http://www.gaussian.com ABAQUS http://www.abaqus.com/support/sup_tech_notes64.html select Abaqus v6.4 Performance Data ANSYS http://www.ansys.com/services/hardware_support/index.htm select Hardware Support Database, then benchmarks. ECLIPSE http://www.sis.slb.com/content/software/simulation/index.asp?seg=geoquest& MM5 http://www.mmm.ucar.edu/mm5/ MSC.NASTRAN http://www.mscsoftware.com/support/prod%5fsupport/nastran/performance/v04_sngl.cfm STAR-CD www.cd-adapco.com/products/star-cd/performance/320/index/html NAMD http://www.ks.uiuc.edu/research/namd HMMER http://hmmer.janelia.org/ http://powerdev.osuosl.org/project/hmmeraltivecgen2mod Revised January 15, 2008 49 2011 IBM Corporation

Notes on performance estimates rperf rperf (Relative Performance) is an estimate of commercial processing performance relative to other IBM UNIX systems. It is derived from an IBM analytical model which uses characteristics from IBM internal workloads, TPC and SPEC benchmarks. The rperf model is not intended to represent any specific public benchmark results and should not be reasonably used in that way. The model simulates some of the system operations such as CPU, cache and memory. However, the model does not simulate disk or network I/O operations. rperf estimates are calculated based on systems with the latest levels of AIX and other pertinent software at the time of system announcement. Actual performance will vary based on application and configuration specifics. The IBM eserver pseries 640 is the baseline reference system and has a value of 1.0. Although rperf may be used to approximate relative IBM UNIX commercial processing performance, actual system performance may vary and is dependent upon many factors including system hardware configuration and software design and configuration. Note that the rperf methodology used for the POWER6 systems is identical to that used for the POWER5 systems. Variations in incremental system performance may be observed in commercial workloads due to changes in the underlying system architecture. All performance estimates are provided "AS IS" and no warranties or guarantees are expressed or implied by IBM. Buyers should consult other sources of information, including system benchmarks, and application sizing guides to evaluate the performance of a system they are considering buying. For additional information about rperf, contact your local IBM office or IBM authorized reseller. Revised October 9, 2007 50 2011 IBM Corporation