ESDEP GROUPE DE TRAVAIL 5 CONCEPTION ET FABRICATION ASSISTEES PAR ORDINATEUR. Leçon 5.1



Documents pareils
Cyber-base du Pays Martégal. Atelier «Découverte de l ordinateur»

LOGICIEL ALARM MONITORING

Cours 3 : L'ordinateur

Leçon 1 : Les principaux composants d un ordinateur

Structure et fonctionnement d'un ordinateur : hardware

Chapitre 1 : Introduction aux bases de données

Guide de démarrage rapide

Traitement numérique de l'image. Raphaël Isdant

Institut Supérieure Aux Etudes Technologiques De Nabeul. Département Informatique

Installation et paramétrage. Accès aux modèles, autotextes et clip- art partagés

Un ordinateur, c est quoi?

1. Introduction Création d'une macro autonome Exécuter la macro pas à pas Modifier une macro... 5

CH.3 SYSTÈMES D'EXPLOITATION

Architecture des ordinateurs. Environnement Windows : sauvegarde

Mode Opératoire Windows XP

2010 Ing. Punzenberger COPA-DATA GmbH. Tous droits réservés.

L ORDINATEUR. Les composants. La carte mère. Le processeur. Fréquence

modélisation solide et dessin technique

Projet : PcAnywhere et Le contrôle à distance.

Utilisation du visualiseur Avermedia

Cycle III Brevet Informatique & Internet Niveau 1. "Je pense être capable

Démontage d'un ordinateur

Module 0 : Présentation de Windows 2000

THEME 1 : L ORDINATEUR ET SON ENVIRONNEMENT. Objectifs

Rapidolect Les Productions de la Columelle ( ) Page 1

Matériel & Logiciels (Hardware & Software)

B2i. LE B2i Brevet Informatique et Internet. Niveau : tous. 1 S'approprier un environnement informatique de travail. b2ico1.odt.

COURS BASIQUES SUR MICROSOFT «VACANCES UTILES 2014»

La communication et la gestion de l'information

ipra*cool v 1.08 guide de l utilisateur ipra*cool v.1-08 Guide de l'utilisateur ipra*cool v

MEMENTO D'UTILISATION Du T.N.I. SmartBoard (Version )

Interface PC Vivago Ultra. Pro. Guide d'utilisation

PC Check & Tuning 2010 Optimisez et accélérez rapidement et simplement les performances de votre PC!

TPS 4 Objectifs du programme aide à la lecture et à l'écriture Les fonctions principales lecture à haute voix

Tune Sweeper Manuel de l'utilisateur

Dessiner dans Galaad FRANÇOIS PALLUT

Canon Mobile Printing Premiers pas

Gérer, stocker et partager vos photos grâce à Picasa. Janvier 2015

LE MICRO ORDINATEUR. Introduction Architecture Les supports amovibles Les composants Le système d exploitation Les portables

Éléments d'architecture des ordinateurs

l'ordinateur les bases

Qu'est-ce que c'est Windows NT?

COMMUNICATEUR BLISS COMMANDE PAR UN SENSEUR DE POSITION DE L'OEIL

Installer une imprimante réseau.

GEP À LA DÉCOUVERTE DU MONDE PROFESSIONNEL. Troisième Découverte Professionnelle Module 3 heures - Collège

Premiers pas sur l ordinateur Support d initiation

Achats de fournitures de matériels et services informatiques

Utilisation du logiciel Epson Easy Interactive Tools

Symantec Backup Exec 12.5 for Windows Servers. Guide d'installation rapide

Annexe : La Programmation Informatique

NETWORK & SOFTWARE ENGINEERING MANUEL D UTILISATEUR. Logiciel TIJARA. NETWORK AND SOFTWARE ENGINEERING Manuel d'utilisateur "TIJARA" 1

Tutorial Terminal Server sous

Serveur Acronis Backup & Recovery 10 pour Linux. Update 5. Guide d'installation

Guide d'utilisation du Serveur USB

CPLN 20/08/2009 MBO Service ICT et Pédagogie

Concepts et définitions

VRM Monitor. Aide en ligne

Prise en main du logiciel Smart BOARD

PHPWEBSITE -Tutoriel image

Utilisation du logiciel GALAAD

Distinguer entre «Enregistrer» et «Sauvegarder»

Table des matières. F. Saint-Germain / S. Carasco Document réalisé avec OpenOffice.org Page 1/13

TRAVAILLER SUR LES ORDINATEURS DU LYCEE

La GEIDE. Dans une solution GEIDE, il est possible d'associer au sein même d'un dossier:

DOCUMENTATION VISUALISATION UNIT


Silfid : Agence de création de site internet, formations et Conseils Retour sommaire

Capture Pro Software. Démarrage. A-61640_fr

Permis de conduire info

L'explorateur de fichier de Windows 8.1

Gérer ses impressions en ligne

1 Gestionnaire de Données WORD A4 F - USB / / 6020 Alco-Connect

La Solution Crypto et les accès distants

Utilisation d'un réseau avec IACA

Le défi : L'avantage Videojet :

TBI-DIRECT. Bridgit. Pour le partage de votre bureau. Écrit par : TBI Direct.

Guide de démarrage rapide Centre de copies et d'impression Bureau en Gros en ligne

Service Informatique et Télématique (SITEL), Emile-Argand 11, 2009 Neuchâtel, Tél ,

Virtual PC Virtual PC 2007 Page I

claroline classroom online

Centre de formation: Collège IBN BASSAM - TEMARA. Ce cours est proposé par le professeur d informatique:

Automatisation d'une Facture 4. Liste Déroulante Remises Case à cocher Calculs

Edutab. gestion centralisée de tablettes Android

Installation et Réinstallation de Windows XP

Cyberclasse L'interface web pas à pas

Prise en main du logiciel. Smart BOARD Notebook 10

Méthodes de développement. Analyse des exigences (spécification)

Créer un diaporama avec Open Office. Sommaire

TRUCS & ASTUCES SYSTEME. 1-Raccourcis Programme sur le Bureau (7)

Progression secrétariat

TeamViewer 9 Manuel Management Console

«Drivers by Seagull»

Les mains dans la bête

Sur un ordinateur portable ou un All-in-One tactile, la plupart des éléments mentionnés précédemment sont regroupés. 10) 11)

TRAVAUX DIRIGES D'INFORMATIQUE INITIATION A LA MANIPULATION DE WINDOWS 98

Carte IEEE Version 1.0

Contrôlez la couleur, contrôlez les coûts

ACTIVITÉ DE PROGRAMMATION

AUJOUR'HUI, NOUS ALLONS DÉCOUVRIR

Sage CRM. 7.2 Guide de Portail Client

Transcription:

ESDEP GROUPE DE TRAVAIL 5 CONCEPTION ET FABRICATION ASSISTEES PAR ORDINATEUR Leçon 5.1 Introduction à la conception et à la fabrication assistées par ordinateur Fichier : L5-1.doc

OBJECTIF Présenter rapidement les développements en informatique d'un point de vue général et donner les différentes manières d'utiliser l'ordinateur dans le domaine de la construction acier, en mettant l'accent sur la conception, le dessin et la modélisation. PREREQUIS Aucun LEÇONS CONNEXES Leçon 5.2 : Les développements futurs des systèmes d'information pour la Construction Métallique. RESUME Les prix réduits des outils informatiques relativement puissants ont conduit à ce qu'un grand nombre d'activités, traditionnellement faites à la main sont maintenant réalisées à l'aide d'ordinateurs. On présente ici les progrès de l'informatique qui ont largement contribué à ce développement. On décrit les potentialités liées à l'utilisation de l'informatique à l'intérieur du processus entier rencontré en construction métallique, depuis l'ordre de commande du client, en passant par la construction sur le site. Sont comprises dans l'étude les applications générales telles que l'utilisation de traitements de texte, tableurs et bases de données, mais on met surtout l'accent sur les calculs analytiques, les calculs liés à la conception et sur la Conception Assistée par Ordinateur, (CAO). On étudie la différence entre systèmes de dessin 2D et modeleurs solides et on considère l'intérêt potentiel du transfert de données d'un modeleur solide vers des dispositifs de fabrication à commande numérique. Page 1

1. INTRODUCTION La manière dont les ordinateurs ont modifié les différentes activités intervenant dans la Construction Métallique est liée aux développements du matériel informatique, des environnements utilisateur, des logiciels et des systèmes d'échange de données. De manière générale, ces développements sont liés entre eux par les progrès du hardware offrant de nouvelles possibilités de développement des logiciels. Cependant, les progrès concernant les utilisateurs n'ont pas tous suivi ce chemin. Dans une large mesure, le développement d'interfaces utilisateur agréables s'est fait en anticipant sur les potentialités disponibles des ordinateurs utilisés. Les processus informatisés qui interviennent en CFAO (Conception et Fabrication Assistées par Ordinateur) doivent être intégrés à l'intérieur de la suite normale des événements qui se déroulent dans les phases de démarrage, conception et construction des structures (figure 1). Le processus peut être suivi par un groupe de consultants individuels, sur différents points, en collaboration avec un constructeur et un (des) entrepreneur(s). Sinon, le processus peut être de la forme «conception-construction», dans ce cas, c'est un organisme qui prend la responsabilité de l'ensemble de l'opération, même si les aspects spécialisés sont déportés à une entreprise autre que l'entreprise mère. Quel que soit le cas, il y a des problèmes de communication et le degré de réussite dans leur maîtrise est crucial pour le succès du projet. Les Technologies de l'information (TI) concernent en grande partie l'efficacité des échanges de données ; on peut y faire appel pour augmenter l'efficacité de toutes les étapes du projet. Bien que l'on s'intéresse principalement ici aux aspects structures, on suppose que tous les groupes de spécialistes associés au projet se considèrent euxmêmes comme faisant partie d'une équipe intégrée. Dans ce cas, les facilités offertes par les systèmes informatisés en matière de partage de données seront utilisées, par exemple, pour s'assurer que les équipements techniques peuvent être montés sur la structure, sans poser, ultérieurement, de problèmes, en particulier sur le chantier. D'un point de vue de l'architecture, il importe aussi que les éléments de structure ne masquent pas l'éclairage naturel par les fenêtres, ni ne gênent la circulation des occupants du bâtiment. Même dans le contexte de la construction métallique, il y a des domaines qui posent couramment des problèmes ; un cas typique est celui où l'ingénieur conseil a choisi pour un ouvrage des éléments optimisés individuellement, posant au constructeur le problème d'avoir à commander de petites quantités d'un grand nombre de sections différentes et de concevoir et fabriquer différents assemblages. Ou encore, les experts conseils peuvent concevoir eux-mêmes les assemblages, et, même si l'utilisation qu'ils font du matériau est efficace, générer des coûts supplémentaires de fabrication qui auraient pu être économisés en utilisant un système standard correspondant aux possibilités du constructeur. Bien sûr, ces problèmes ne devraient jamais arriver et le fait qu'ils arrivent de façon courante est essentiellement le résultat d'un manque d'efficacité dans la communication entre les membres de l'équipe de conception. Pendant la phase initiale de la soumission, les ingénieurs structures doivent : Page 2

Se contacter mutuellement avec le client, l'architecte et les autres spécialistes, en incluant si possible un constructeur ; Concevoir, accepter et rationaliser une forme de structure ; Mettre en œuvre des calculs rapides de conception de la structure ; Fournir une gamme limitée de dessins ; Fixer les exigences portant sur le matériau et le processus de construction ; Les utiliser pour estimer un prix de soumission et fournir les documents de soumission. Cette étape comporte, de façon évidente, beaucoup de travail qui, à l'issue de la décision, peut s'avérer inutile. De ce point de vue, donc, il est nécessaire de minimiser les efforts dépensés dans une tentative risquée. D'un autre côté, dans le cas où l'on obtient le contrat, il est essentiel de réduire la valeur des écarts éventuels par rapport aux spécifications de la soumission. De ce fait, ce travail doit être fait consciencieusement. Un objectif évident, à ce stade, d'une approche informatique même relativement grossière, est de réduire de beaucoup les heures de travail consacrées au prédimensionnement des éléments, à la production des dessins destinés à la soumission et à l'estimation du prix. Lorsque le contrat a été signé, l'équipe de conception victorieuse est alors confrontée aux besoins suivants : Fournir les calculs détaillés de conception ; Fournir les différents plans destinés à la fabrication, à la construction et au contrôle du bâtiment et utilisés dans les interactions entre les spécialistes de la structure, de l'architecture et du second œuvre ; Fournir un métré détaillé et les documents contractuels ; Identifier un mode de fabrication efficace et les étapes successives de la construction, en s'assurant d'une arrivée sans retard des composants avant que l'on en ait besoin, s'assurant ainsi que l'imprévu ne se produit pas sur le chantier. Dans chacun de ces traitements, l'utilisation de l'informatique directe, par l'intermédiaire de logiciels et pour partager des données constitue un des aspects importants de la vérification de ce que le bâtiment est construit de façon efficace et «tourne» bien. Bien qu'il soit naturel dans un cours, tel que celui-ci, de se concentrer sur les apports techniques de l'informatique aux processus de conception et de fabrication, il faut garder présent à l'esprit qu'une part significative du gain potentiel en efficacité d'un processus complexe à plusieurs étapes peut provenir d'une intégration convenable de logiciels de bureaux ordinaires tels que traitements de texte, tableurs et bases de données. Les décisions concernant la manière de partager et de communiquer les données et Page 3

concernant l'organisation du processus dans son ensemble peuvent aussi donner lieu à des différences d'efficacité sensibles. On suppose dans cette leçon que le lecteur possède seulement quelques notions générales sur les ordinateurs et leur utilisation, ainsi que sur les applications de la commande automatisée des opérations de fabrication et d'usinage. Cette leçon passe donc en revue l'informatique actuelle et les chemins suivant lesquels elle s'est développée depuis environ les quarante dernières années. L'introduction et l'utilisation de quelques termes du jargon informatique est nécessaire, ils sont écrits en italique. Les développements informatiques sont soumis à une évolution rapide, et, de ce fait, l'ensemble de leurs caractéristiques ne sont valides que pour une brève période suivant leur écriture. Page 4

2. LE MATERIEL INFORMATIQUE Les «ordinateurs» digitaux fonctionnant sur des principes mécaniques furent tout d'abord développés au XIX e siècle par les mathématiciens. Ils n'ont été développés par la suite que pour constituer des «machines à additionner» et des calculateurs électromécaniques (parfois plus analogiques que digitaux), destinés à des applications commerciales, industrielles et mécaniques, jusqu'au milieu du XX e siècle. Ils réalisaient des calculs numériques beaucoup plus rapidement que s'il avait fallu les faire à la main, mais, limités par leur nombre important de pièces de précision en mouvement, ils ne pouvaient réaliser que des calculs arithmétiques généraux plutôt simples ou des tâches uniques comme par exemple des recherches de portée de tir pour l'artillerie. Les premiers ordinateurs électroniques commencèrent à se développer au milieu du XX e siècle et utilisaient des lampes radio comme composants de calcul de base. Ces composants étaient disposés sur des racks et c'est de là que les ordinateurs prirent le nom de mainframes. Ils généraient de grandes quantités de chaleur et il était toujours nécessaire de disposer de systèmes de refroidissement et d'air conditionné efficaces. Les premiers ordinateurs n'étaient pas fiables à cause de la durée de vie limitée des lampes à vide, et, au fur et à mesure que la taille de ces ordinateurs a augmenté, s'est accrue aussi la probabilité de panne. La limite naturelle à la taille de tels ordinateurs fut atteinte lorsqu'on eut à considérer un travail de conception qui utilisait un si grand nombre de lampes qu'on estima, selon la théorie normale des probabilités, qu'il y aurait en moyenne 57 minutes de temps mort sur chaque heure. La maintenance et l'utilisation d'un ordinateur faisaient appel à un grand nombre de personnes spécialisées. Comparés à la génération précédente d'instruments mécaniques, ces ordinateurs étaient extrêmement puissants. Dans l'industrie, la tendance fut de les installer principalement pour des utilisations de paye et de gestion financière, mais dans l'environnement de la recherche, leur développement ouvrit la voie à l'analyse numérique. Le développement, dans les années 50, des transistors et, dans les années 60 et 70, des circuits intégrés miniaturisés (micro-puces) conduisit à des perfectionnements concernant la taille, la consommation énergétique, la puissance de traitement, la fiabilité et le prix du matériel informatique. Ceci permit une grande diversification des applications de l'informatique et des machines qui les traitaient. Le premier de ces développements a été celui des mini-ordinateurs - machines relativement transportables et possédant une puissance de traitement suffisante pour réaliser des tâches qui n'auraient été auparavant possibles que sur des mainframes. L'unité centrale de traitement était typiquement installée dans un meuble qui pouvait être mis sur un chariot, avec les périphériques nécessaires et utilisé dans l'environnement normal d'un bureau ou d'un laboratoire. Comparés aux mainframes, les mini-ordinateurs n'avaient que des exigences modestes en matière de support technique. Leur taille fut réduite de façon dramatique pendant les années 80 au point que leurs descendants actuels, habituellement connus sous le nom de stations de travail, sont très semblables, visuellement, aux ordinateurs personnels. Les mainframes eux-mêmes se sont développés sous la forme de super-ordinateurs, mettant l'accent sur une mémoire et un Page 5

stockage de données importants, parallèlement à un traitement extrêmement rapide. Les super-ordinateurs sont maintenant utilisés pour faire tourner des applications de bases de données gigantesques, ainsi que des simulations numériques de systèmes complexes. Vers le milieu des années 70, la technologie des micro-puces s'est développée au point de pouvoir faire tenir une puissance de calcul significative sur des unités très petites - diversement appelées micro-ordinateurs, ordinateurs de bureau, ordinateurs personnels ou domestiques. Au début, ils ne disposaient que d'une mémoire interne très faible, mais ils étaient programmables directement à partir du clavier en BASIC et pouvaient charger des programmes à partir de cassettes audio. Chacun des premiers constructeurs de micro-ordinateurs disposait de son propre système d'exploitation (ou programme de contrôle) et il n'y avait pas de possibilité de transférer des programmes ou des données directement d'un type de machine à un autre. Il y avait aussi plusieurs types de processeurs en usage, chacun avec son propre jeu d'instructions, de telle sorte que même les compilateurs des langages de programmation devaient être réécrits pour chacun des types. Un pas en avant considérable fut fait avec l'écriture d'un système d'exploitation commun (CP/M) à une famille de microprocesseurs. Ce système a stimulé la production d'une large gamme de micro-ordinateurs entre lesquels les programmes étaient interchangeables. Ce processus de standardisation s'est poursuivi au point qu'au moment de l'écriture de ces lignes, il n'y a que deux grands groupes d'ordinateurs personnels utilisés dans les environnements commerciaux et professionnels : les compatibles IBM- PC et le Macintosh d'apple. En ce qui concerne les compatibles PC, les spécifications de base sont fixées par IBM lui-même et c'est une énorme industrie mondiale qui fabrique le matériel et les logiciels. Dans le cas du Macintosh, il n'existe pas une telle industrie de fabrication de «compatibles», mais, cependant, le Macintosh possède une base de logiciels très forte dans certains domaines, en particulier en ce qui concerne la conception et l'édition. Page 6

3. IMPRIMANTES ET TRACEURS En dépit de la diversité actuelle des manières de présenter et de stocker l'information, il est encore très important de disposer d'un dispositif d'obtention d'une copie papier des données entrées, des listings de programmes, des résultats des analyses, des graphiques et des documents. Pour une sortie alphanumérique, on obtient une copie papier de façon pratique en utilisant une imprimante. Dans ce domaine aussi, il y a maintenant une gamme considérable d'options, mais le principal changement de ces dernières années a été le passage des imprimantes à caractères préformés aux imprimantes à balayage (ou matricielles) de différents types. La grande majorité des imprimantes modernes appartient à ce dernier groupe, dans lequel l'impression est constituée par une matrice de points qui recouvre la zone à imprimer de la même manière que les pixels constituent les images écran. En impression noir et blanc, chacun de ces points est simplement noirci ou désactivé pour constituer la forme du caractère ou les images graphiques et la finesse de l'impression dépend de l'espacement entre les points. La méthode selon laquelle les points sont imprimés sur le papier constitue la principale différence technique d'une imprimante à une autre. Les imprimantes-lignes des premiers mainframes étaient basées sur des principes analogues à ceux de la machine à écrire, avec des caractères préformés frappés sur le papier à travers un ruban encré. Ces imprimantes-lignes peuvent imprimer de gros volumes de texte à grande vitesse, mais sont très limitées dans leur capacité à imprimer des dessins. Des variantes de plus petites dimensions incluent des imprimantes à marguerites et à tête sphérique qui souffrent des mêmes limitations et aussi d'une vitesse d'impression plutôt faible, bien que l'impression soit généralement d'une qualité élevée. Les imprimantes à matrices de points, à impact, sont utilisées depuis de nombreuses années et constituent un système relativement bon marché de réalisation d'impressions d'une qualité raisonnable, à la fois pour du texte et des dessins. Une tête d'impression mobile contient une ou plusieurs ligne(s) verticale(s) d'aiguilles, dont chacune peut être propulsée vers le papier produisant ainsi un point unique. Des systèmes typiques proposent 9 aiguilles dans une seule ligne ou 24 aiguilles sur trois colonnes décalées. On obtient une impression brouillon rapide par impression de points qui ne se recouvrent pas du tout, alors que la qualité courrier (NLQ : «near letter quality») s'obtient en simulant les polices de caractères de l'édition au moyen de tableaux de points superposés. Sur de simples imprimantes à 9 aiguilles, on obtient ceci en deux passes de la tête d'impression sur une ligne légèrement décalée en position, afin de donner une image plus dense, plus précise. Différentes polices de caractères peuvent être fournies et une vaste variété de caractères est incorporée. Compte tenu de la capacité de commander chaque aiguille de la tête d'impression quand elle passe sur le papier, on peut aussi imprimer des images graphiques. Elles peuvent être définies en bitmap, format dans lequel l'image est stockée sous la forme d'un tableau continu de points qui recouvrent toute la zone à imprimer et que l'on peut envoyer à l'imprimante comme une impression d'écran qui convertit directement un pixel d'écran en un ou plusieurs points d'impression. Sinon, il est possible de convertir des images vectorielles Page 7

(comme par exemple les plans techniques) en bitmap par logiciel au niveau soit de l'ordinateur, soit de l'imprimante. Des dessins bitmap beaucoup plus denses peuvent être réalisés au moyen d'imprimantes laser, dont la technique consiste à déposer des points de manière électrostatique, à l'instar des photocopieurs. Bien que chères, elles offrent une qualité d'impression excellente, la rapidité et la souplesse (en termes de types de caractères, polices et formats d'impression). La haute densité de la matrice rend les imprimantes laser capables d'imprimer aussi bien des images graphiques de haute qualité que du texte. Les imprimantes à jet d'encre, moins chères qui projettent une par une de petites gouttelettes d'encre sur le papier à partir d'une tête d'impression mobile, donnent une impression de qualité presque comparable, mais sont moins souples et beaucoup plus lentes. La plupart des dessins techniques issus des systèmes de CAO sont stockés sous forme de données vectorielles (ou d'instructions graphiques). Les traceurs à plumes, utilisés depuis de nombreuses années font appel à la technique des plumes pour exécuter les instructions, fonctionnant comme un dessinateur mécanisé. La technologie de fabrication de ces traceurs s'est développée au point qu'au moment de l'écriture de ces lignes, ils représentent encore un moyen économique de dessiner de grands plans, avec une vitesse raisonnable, avec différentes couleurs et un grand nombre d'épaisseurs de traits. Comme ils reposent sur la technique des servomoteurs, cela ne coûte pas beaucoup plus cher d'augmenter la taille physique de la zone de dessin ; le nombre de données à tracer envoyées et stockées est tout simplement proportionnel au nombre d'instructions vectorielles du plan. Cependant, le fait de dépendre du déplacement des pièces limite la vitesse et la précision du tracé. Ces traceurs couvrent toutes les dimensions de papier utilisées, du format A4 au format A0. Comme leur seule méthode de travail consiste à déplacer la plume le long de vecteurs sur le papier (parfois en déplaçant le papier, tout autant que la plume) leur utilisation la plus économique pour du texte consiste plutôt à dessiner des caractères «simplistes» qu'à tenter de simuler des polices de caractères. Pour les mêmes raisons, ils ne donnent pas de bons résultats si on les utilise pour colorier des zones pleines, car ils se contentent d'«ombrer» la zone au moyen d'un grand nombre de traits. Qu'elle soit continue ou automatique, l'alimentation du papier est généralement disponible sur les modèles haut de gamme. L'usage des traceurs électrostatiques qui dérivent des imprimantes laser est en train de se développer aux dépens des traceurs à plumes. Dans la mesure où une image matricielle par point de qualité élevée nécessite beaucoup de mémoire sur le traceur qui la représente, cela coûte actuellement très cher d'augmenter le format du papier et ces traceurs peuvent s'avérer très onéreux. Ils sont, cependant, très rapides et précis. On a déjà mentionné que les imprimantes laser conduisent à une impression graphique de très haute qualité, ce qui fait qu'elles représentent une solution beaucoup moins chère pour un grand nombre de documents techniques pour lesquels des feuilles de papier de petite taille (A4 - A3) sont considérées comme étant suffisantes. Il existe aussi des traceurs à jet d'encre, bien meilleur marché que les électrostatiques, fournissant un moyen économique permettant d'obtenir un tracé en couleur précis. Page 8

4. ENTREES/SORTIES ET STOCKAGE Lors d'un traitement par lots (en «batch»), toute l'information, y compris le code et les données d'entrée, est fournie par l'utilisateur avant que le traitement ne commence. Ceci peut être fait d'un grand nombre de façons différentes. Les premiers systèmes mainframes utilisaient des rubans ou des cartes perforées, pas pratiques à éditer et favorisant les erreurs. Rubans et cartes furent remplacés dans les années 70 par le stockage sur bandes et disques magnétiques. Dans le cas des premiers microordinateurs, la bande avait souvent la forme d'une cassette audio, maintenant largement remplacée par les disquettes, beaucoup plus maîtrisables. Elles fournissent un mode de stockage portable pour un nombre relativement grand de données, et, ayant franchi diverses étapes de développement, elles sont maintenant au format 3,5" (pouces), assez robustes pour être presque autoprotégées vis-à-vis d'une utilisation physique abusive, raisonnable toutefois. Les disques durs existant sur de nombreux PC actuels autorisent à la fois un accès rapide et une capacité de stockage beaucoup plus grande que les disquettes, mais ne sont normalement pas portables entre machines. Les systèmes à cassette magnétique (souvent appelés streamers - sauvegarde sur bande) sont maintenant largement utilisés pour faire des copies de sauvegarde compressées de fichiers normalement stockés sur disque dur. Une forme de stockage de données, passablement différente des systèmes magnétiques vus précédemment, est constituée du stockage sur disque compact (CD-ROM). Très proche du CD utilisé pour la reproduction sonore ou vidéo, il permet de disposer d'une énorme quantité d'informations, rapidement récupérables, par rapport aux dispositifs magnétiques. Le CD-ROM est souvent fourni avec les PC destinés à la formation et à l'exploitation d'informations, dans la mesure où il fournit un dispositif permettant de mixer du logiciel, avec de vastes bases d'informations et des dessins de qualité vidéo, de manière interactive. Dans certains cas, il est possible d'écrire sur un CD en tant que stockage amovible, mais il n'est pas possible de réutiliser l'espace sur le disque une fois qu'on a écrit dessus - de cette manière le CD est considéré comme un moyen de stockage WORM (Write Once Read Many - une seule écriture, plusieurs lectures). Cependant, lorsqu'il est nécessaire de créer, stocker et récupérer de très grandes quantités de données, c'est la solution évidente. Il devient maintenant commun d'utiliser un scanner pour entrer du texte et des dessins directement sur un ordinateur, à partir d'une copie papier. La clé de cette technologie n'est pas tant dans la capacité du scanner à rentrer une image du dessin qui est posé dessus, mais plutôt dans le logiciel de reconnaissance de caractères qui transforme les images de chaque caractère par bits en police de caractères normale pour imprimante. Pour du dessin, l'obtention d'une image bitmap d'une photo ou d'un dessin avec des lignes est passablement classique. Il existe des logiciels qui fabriquent des fichiers pour traceur vectoriel à partir d'images bitmap de dessins techniques, bien que, au moment de l'écriture de ces lignes, ces logiciels soient encore en cours de développement. Quel que soit le cas, des données d'entrées scannérisées peuvent encore être peu fiables, compte tenu des problèmes qui peuvent être rencontrés avec les documents papier d'origine. Page 9

5. INTERACTIVITE L'utilisation interactive directe des premiers mainframes n'était pas possible, mais elle est progressivement devenue la méthode de travail la plus efficace dans la plupart des cas. Au départ, on utilisait des terminaux passifs, permettant aux utilisateurs de taper et d'envoyer directement à l'ordinateur les types de commandes batch qui avaient préalablement été lues à partir des cartes perforées. Cependant, avec les mainframes, les communications bidirectionnelles étaient lentes, dans la mesure où un grand nombre d'utilisateurs pouvaient être en temps partagé sur le processeur central, et, quels que soient les cas, les vitesses de transmission des données étaient plutôt faibles. Ce n'est que lorsque les vitesses de communication et de traitement se sont accrues qu'il est devenu possible d'avoir des programmes interactifs. A ce moment-là, un programme en cours d'exécution pouvait s'arrêter et avoir besoin de données supplémentaires de la part de l'utilisateur connecté sur un terminal déporté, relançant l'exécution après avoir entré cette donnée. Les résultats pouvaient apparaître sur le terminal ou être imprimés sur papier. L'utilisation des terminaux passifs a maintenant été largement remplacée par l'informatique distribuée. Le PC en soi a assez de puissance de traitement et de mémoire pour la plupart des applications, c'est ainsi que les communications avec le processeur central ne sont pas dépendantes du temps partagé et il est possible d'utiliser des logiciels réellement interactifs. Quand l'accès au logiciel ou les besoins en données doivent être partagés entre beaucoup d'utilisateurs, la tendance est de relier les ordinateurs en réseau. Dans un réseau, un grand nombre d'ordinateurs, dont chacun utilise sa propre capacité de traitement, sont reliés entre eux (figure 2), de telle sorte que chacun d'eux a accès aux autres et, ce qui est plus important, chacun d'eux a accès à un vaste magasin de fichiers dans lequel sont stockés les données et les logiciels. Ce répertoire de fichiers est commandé par un ordinateur «esclave», désigné sous le nom de serveur de fichiers et dont la fonction est de gérer le réseau. Lorsqu'un ordinateur de l'anneau a besoin de faire appel à un programme particulier, il le charge à partir du répertoire et le lance localement. Les données produites par un ordinateur peuvent être mises dans une base de données du répertoire central et l'accès donné aux autres. De tels réseaux sont souvent associés à des passerelles vers des réseaux plus importants, nationaux ou internationaux, de manière à ce que l'information puisse être partagée par un vaste groupe de personnes. Même avec un ordinateur domestique, l'utilisation d'un modem permet à l'utilisateur d'avoir accès au réseau via une connexion téléphonique ordinaire, lui fournissant un dispositif de numérotation. Cette possibilité suppose évidemment que les données sont protégées vis-à-vis d'un accès frauduleux par des utilisateurs non autorisés et, dans certains cas, il faut pouvoir garantir la confidentialité. On utilise différents systèmes de protection par mot de passe, afin d'essayer de s'assurer que les utilisateurs du réseau n'ont pas d'accès au-delà de leur zone légitime d'intérêt. Les ordinateurs ne sont pas les seuls dispositifs qui peuvent être rattachés à un réseau. C'est aussi le cas de la plupart des types communs de périphériques (tels que imprimantes, traceurs, scanners et autres dispositifs d'entrées/sorties). Dans le cas, dirions-nous, d'un traceur, le serveur de fichier commandera l'accès au dispositif en mettant ses fichiers de sortie à la suite les uns des autres, de manière à rester maître de Page 10

la commande. Le système de mise en queue peut s'appliquer à tout périphérique susceptible d'être rattaché au réseau ; dans le contexte des installations de fabrication, cela peut s'appliquer à l'atelier de machines à commande numérique, pour lesquelles un grand nombre de travaux à faire peuvent être, à chaque instant, en phase d'attente. Page 11

6. L'INTERFACE UTILISATEUR Le terme d'interface utilisateur fait référence à la manière dont l'utilisateur et l'ordinateur échangent de l'information. Dans son sens de base, il peut faire référence à la manière dont l'utilisateur donne ses instructions la première fois qu'il se connecte à l'ordinateur ou qu'il le met en marche et à la manière dont l'ordinateur lui répond. Ceci est commandé par le système d'exploitation de l'ordinateur, chargé à partir du disque dur au démarrage et qui inclut une série de fonctions utilitaires qui peuvent être lancées par des commandes appropriées (ou raccourcies) de la part de l'utilisateur. Comme beaucoup de ces fonctions concernent les opérations portant sur les fichiers sur disque (effacement, appel, changement de nom...), le système d'exploitation est d'habitude désigné sous le nom de système d'exploitation de disque ou encore DOS. A l'époque des terminaux passifs, les deux seules fonctions de l'interface utilisateur étaient : Montrer à l'écran la ligne de caractères qui venait d'être tapée au clavier, et, éventuellement, les envoyer à l'ordinateur central (typiquement après avoir appuyé sur la touche «Enter») ; Montrer à l'écran tous les caractères envoyés au terminal par l'ordinateur central. Cette interactivité était très séquentielle. Les lignes de texte s'affichaient du haut vers le bas de l'écran, ce qui fait que l'affichage défilait progressivement sur l'écran au fur et à mesure que des lignes s'ajoutaient dans le bas. Avec les vitesses de transfert très élevées dont on dispose actuellement et parce qu'un écran n'est commandé que par un ordinateur, la communication entre l'ordinateur et son écran est quasiment instantanée pour l'utilisateur. Ceci a permis aux interfaces utilisateur de se développer très rapidement, avec pour objectif de rendre l'utilisation de l'ordinateur plus «naturelle» et d'en faire une activité humaine moins spécialisée. Il a été reconnu que le processus normal de la pensée se base en grande partie plutôt sur des images de type dessin que sur une logique fondée sur des mots. L'ouverture, à la majorité des gens, de l'utilisation des ordinateurs repose sur le retrait de l'obligation d'apprendre des langages de programmation même de haut niveau, y compris les commandes d'un système d'exploitation ou d'une partie de logiciel. La génération actuelle d'interfaces utilisateur par fenêtres (figure 3) constitue une tentative de minimisation de la quantité de connaissances spécialisées nécessaires aux utilisateurs et de prise en compte de la nature non-verbale de la prise de décision humaine. Le concept de base est celui de l'écran d'ordinateur, considéré comme un bureau sur lequel sont placés un certain nombre de grands livres (fenêtres). Ces grands livres contiennent un ensemble d'outils (programmes) et de documents (fichiers de données). Ils peuvent aussi être mis en arrière plan ou au premier plan, avec leur Page 12

contenu affiché, un grand livre pouvant être partiellement recouvert par un autre. Chacun des outils est représenté par une icône - un petit dessin - avec son titre. On utilise un pointeur (une flèche), directement commandé par une souris, afin de choisir un programme simplement en pointant dessus et en cliquant sur un bouton de la souris. Une fois que le programme est lancé, il obéit aux normes classiques de l'interface par fenêtrage, de telle sorte qu'il n'est pas nécessaire, pour l'utilisateur, d'apprendre une nouvelle méthode de travail lorsqu'il passe à un nouvel outil logiciel. D'habitude, le principe de travail consiste à minimiser l'utilisation du clavier pour prendre des décisions (cela reste évidemment le meilleur outil pour rentrer directement un texte ou des données), en utilisant le pointeur pour choisir les options et en faisant appel à une vaste gamme d'outils graphiques standards de l'écran. Ces options incluent les menus déroulants et les boites de dialogue, les deux étant constitués de petits écrans en surimposition, sur lesquels on effectue le choix et qui s'enlèvent d'eux-mêmes lorsque la décision est prise. Il est actuellement à la mode de pouvoir prendre les décisions les plus importantes en «appuyant sur des boutons» avec le pointeur. Il est possible, pendant qu'un programme tourne dans une fenêtre, de mettre cette activité en pause et de faire appel à une autre application dans une autre fenêtre. Il ne s'agit pas réellement de multitâche, dans la mesure où il n'y a qu'un seul programme actif en même temps, mais on peut mélanger une série de tâches dans une période donnée, sans avoir à fermer complètement aucune d'entre elles. Par exemple, pendant qu'on rédige un rapport technique, il peut être intéressant d'avoir, ouverts simultanément, un traitement de texte, un tableur, un programme spécifique de conception ou de calcul et un programme de CAO, de telle sorte que le document final sorte alors qu'on génère ou qu'on modifie de nouvelles valeurs, de nouveaux résultats de calculs, de nouvelles catégories d'informations ou de nouveaux graphiques. Le vrai multitâche, pour lequel on peut faire tourner un grand programme d'éléments finis, par exemple, tout en réalisant en même temps des tâches interactives plus routinières n'est disponible en pratique que sur les types les plus puissants de stations de travail. Bien que les interfaces par fenêtres rendent les ordinateurs accessibles à un plus grand nombre d'utilisateurs potentiels, elles représentent quelques difficultés pour les développeurs de logiciels. Les exigences en mémoire vive sont importantes, de même que la capacité de stockage sur disque dur. Le développement de logiciels nouveaux pour des environnements par fenêtrage est d'habitude plutôt lent. Il nécessite beaucoup de temps, et, donc, lorsque le marché est restreint, il n'est pas toujours rentable d'écrire des programmes techniques originaux. Une tâche encore plus difficile consiste en la transformation d'un logiciel bien établi, tournant sous un environnement de système d'exploitation normal, d'une manière telle qu'il conserve ses fonctionnalités et conserve les méthodes de travail qui l'avaient rendu populaire, tout en tirant profit d'une interface utilisateur répandue. De ce fait, il est souvent nécessaire de travailler sous un environnement de systèmes d'exploitation classiques. Pour les PC, on retrouve habituellement MS-DOS et pour les stations, UNIX. L'utilisation d'un ordinateur sous ces environnements nécessite une compréhension bien plus grande des fonctions du système d'exploitation et de la manière dont les données sont stockées sur disque. D'un point de vue visuel, l'utilisateur voit un écran noir ou une partie de cet écran, avec un curseur clignotant situé à droite d'un petit message d'invite («prompt»). Pour que l'ordinateur puisse réaliser une tâche utile quelconque, il faut en taper la commande dans le langage de haut niveau du système d'exploitation. C'est moins contraignant qu'il Page 13

y paraît. Avec seulement quelques commandes d'un vocabulaire donné et une connaissance courante de la structuration des répertoires des disques durs, on peut travailler de manière très efficace, soit sur un PC, soit sur une station de travail. Page 14

7. LA PROGRAMMATION DES ORDINATEURS Au niveau du microprocesseur, il est nécessaire d'exécuter un très grand nombre d'instructions très simples pour réaliser même la plus simple des tâches informatiques. La tâche de programmation à proprement parler d'un ordinateur représente quelque chose d'ennuyeux et n'est utilisée que lorsque la vitesse d'exécution constitue la priorité la plus grande d'une partie d'un programme. Les langages de programmation de haut niveau constituent une alternative pour présenter une séquence d'instructions plus puissantes à une machine et cela sous une forme raisonnablement comparable au langage ordinaire. L'ensemble des instructions (le programme informatique) est ensuite traduit (compilé) sous la forme d'un code machine, compréhensible par le microprocesseur. Tous les langages de programmation ont un vocabulaire constitué de commandes fonctionnelles et de règles de syntaxe. De plus, il y a de nombreux opérateurs arithmétiques, y compris un grand nombre de ceux utilisés dans les mathématiques classiques, avec leur capacité à utiliser des variables d'un grand nombre de types différents. Le programmeur prépare une liste de ces instructions, représentant le flot de commande à l'intérieur du programme. Il y a de nombreux langages de programmation, dont presque tous sont capables de réaliser la plupart des tâches informatiques, mais dont chacun a sa propre philosophie de base qui le rend efficace dans un domaine spécifique. Pour des applications techniques, FORTRAN (à l'origine utilisé sur mainframes, en traitements par lots) reste très largement utilisé, compte tenu de son efficacité mathématique et de son immense bibliothèque de sous-programmes mathématiques. Le langage le plus populaire au monde, pour la programmation générale, est BASIC et il existe sous de nombreuses formes différentes, depuis les versions interprétées presque complètement non-structurées, généralement livrées avec tous les types de PC, jusqu'aux langages compilés évolués, avec leurs vastes bibliothèques de fonctions. Sans doute, le langage d'intérêt général le plus vaste dans son application et le plus puissant, utilisé par les programmeurs professionnels est-il C, langage qui inclut des opérateurs permettant un accès direct très facile à la mémoire de l'ordinateur. D'autres langages peuvent être utilisés principalement pour des types particuliers d'applications, ils ont leurs propres exigences fonctionnelles et nous ne rentrerons pas ici dans leurs détails. Actuellement, les utilisateurs de l'informatique n'ont pas nécessairement, de façon formelle et dans tous les cas, besoin d'écrire des programmes, mais ils font appel à des logiciels écrits par des développeurs professionnels et qui ont nécessité de nombreux hommes-an. Une exception particulière concerne le contexte des tableurs et éventuellement des bases de données, pour lesquels il peut être pratique d'écrire des applications dans les langages de haut niveau disponibles avec ces types de logiciels. Page 15

8. LOGICIELS D'ANALYSE DE STRUCTURES ET DE CONCEPTION En grande partie, compte tenu de leurs liens avec la recherche informatique dans les universités, les logiciels d'analyse de structures existent depuis longtemps, au départ sur mainframes et plus récemment sur tous types de machine. Excepté en ce qui concerne les traitements analytiques les plus complexes, la puissance des PC modernes se révèle suffisante, même pour les tâches les plus spécialisées du calcul de structures. Dans le cas de l'étude d'éléments de structures isostatiques, la partie calcul se trouve normalement incluse dans le logiciel de conception détaillée. Le calcul élastique de structures à âme pleine et de grilles de poutres constitue probablement l'outil général le plus utile à l'ingénieur structure. Il existe maintenant sur PC sous un grand nombre de formes différentes. Les différences importantes entre ces programmes tendent à se situer plus au niveau de leur facilité d'emploi qu'à celui de leurs possibilités techniques ; ils tendent tous à rationaliser leurs capacités graphiques (figure 4), de manière à pouvoir visualiser de façon pratique la géométrie et les résultats, mais il y a de grandes différences dans la manière d'éditer la géométrie et les chargements. Il en est de même de leurs capacités à être reliés à des logiciels de conception et de CAO. Les analyses de structures non-linéaires, élasto-plastiques et en 3 dimensions sont maintenant classiquement disponibles sur PC, livrées d'habitude dans les packages éléments finis d'usage général, dérivant de logiciels pour mainframes développés en recherche académique. Ces packages, utiles pour la vérification des contraintes, des déplacements et des réponses dynamiques, pour des cas très complexes, ont tendance à être surdimensionnés pour la plupart des problèmes de calcul de structures. Ils ont besoin que l'on définisse un très grand nombre de données et produisent souvent beaucoup plus de données en sortie qu'il n'est nécessaire. Leur utilisation est plus adaptée à la validation finale d'une conception que lors des stades précédents pour lesquels les calculs faits font souvent partie de la procédure de sélection d'un élément. Les logiciels de conception de structures représentent un phénomène beaucoup plus récent, dans la mesure où ils s'appuient de façon importante sur l'interaction avec l'ingénieur de conception. Leur usage n'a commencé à se développer que lorsque les micro-ordinateurs ont commencé à se répandre, au début des années 80. Une grande partie de la conception générale de la structure comporte des calculs relativement simples - calcul des charges standard, calcul et dimensionnement des éléments sur la base des règles de calcul contenues dans les règlements. Ces calculs étaient traditionnellement faits à la main, mais le développement de l'informatique interactive permet maintenant aux concepteurs de tirer profit de la puissance de la machine sans avoir à renoncer à la maîtrise qu'il a des décisions de conception. Les logiciels de conception soulagent le concepteur de l'aspect ennuyeux des calculs fastidieux à la main - dans de nombreux cas, un niveau d'«optimisation» est inclus dans le programme, mais les décisions concernant le choix des dimensions les plus appropriées de l'élément individuel restent au concepteur. Les logiciels de conception concernent maintenant presque tous les domaines, mais sont très variables dans leur nature, leur style et leur Page 16

qualité. Les meilleurs permettent une très grande flexibilité lors de l'utilisation, rendent faciles les modifications de projets existants et autorisent l échange de données avec des logiciels de calcul, de CAO, de modélisation et de métré. Dans le contexte de la conception de structures acier, le matériau disponible commence avec les «disquettes gratuites» données par les fabricants de profils formés à froid, comme les tôles minces, les pannes et tabliers composites et fournissant effectivement des tableaux à lecture rapide donnant les charges de service en sécurité et les portées compte tenu de dimensions-clés. La conception des éléments selon différents règlements comprend les poutres (à la fois en acier et composites), les poteaux et les poutres-voiles et les assemblages de divers types. Même si la conception des éléments se fait par l'intermédiaire de programmes exécutables autonomes, la puissance des tableurs actuels est telle que l'utilisation de tableurs standard peut fournir un moyen très souple d'automatisation de ces processus de conception plutôt sans surprise, avec de bons liens avec d'autres logiciels standard. La conception en plasticité des ossatures métalliques, en particulier les structures de faible hauteur telles que les portiques, est disponible avec différents niveaux de sophistication en termes de commodité d'utilisation, de liens avec des logiciels en aval et avec la CAO et en termes de l'ordre de l'analyse qu'il propose. La conception en plasticité est un domaine dans lequel des niveaux différents de capacités d'analyse fournissent des ordres différents de réalisme pour les résultats ; l'analyse la plus non-linéaire, permettant le développement de zones plastiques, peut donner des capacités de résistance notablement plus faibles que ne le permettent les versions rigide-plastique et élasto-plastique. Peut-être l'aspect le plus important à apprécier concernant les logiciels de conception est-il de pouvoir permettre à différents environnements de conception de travailler de manière différente. Un constructeur de structures métalliques engagé de façon importante en conception-construction aura réellement besoin d'un système intégré, de préférence basé sur un modeleur 3-D, pour lequel il lui soit facile de gérer un grand nombre d'éléments pour standardiser les dimensions et les assemblages, pour faire des modifications rapides et pour produire des données précises de coût et de fabrication. D'un autre côté, une petite entreprise de consultants généraux peut trouver plus pratique de disposer d'une bibliothèque de programmes autonomes de conception assez vaste, avec une interface utilisateur facile à comprendre, de telle sorte que le dimensionnement d'un élément de base et la présentation des calculs pour l'approbation du bureau de contrôle puissent se faire de manière fiable et sans avoir à réapprendre de manière significative leur mode d'emploi, lorsque leur utilisation est occasionnelle. Page 17

9. CONCEPTION ASSISTEE PAR ORDINATEUR : DESSIN EN DEUX DIMENSIONS Le développement des graphes interactifs aux environs du début des années 70 a été l'occasion d'utiliser les ordinateurs pour le dessin. Ces premiers systèmes faisaient appel aux mainframes équipés de terminaux graphiques (écrans «verts») et offraient des capacités de dessin à trois dimensions. Au début, leur usage se limitait à l'industrie de fabrication lourde, en particulier la fabrication des avions, bateaux et automobiles, là où les avantages liés à une fabrication «de masse» justifiaient les énormes investissement requis par la CAO. Même lors de ces périodes pionnières, les sorties de ces systèmes de CAO consistaient en la fourniture de métrés automatiques et de liens avec les machines à commande numérique (CN), de façon à améliorer le rendement de la fabrication. A la fin des années 70, le développement d'ordinateurs «super-mini» fut un facteur significatif de l'accroissement de l'utilisation de la CAO. Ils disposaient de dispositifs mono-utilisateur et on pouvait les considérer comme des «concepteurs personnels». Leur usage était encore centré vers les industries basées sur la production. L'utilisation de systèmes relativement bon marché, pas sophistiqués, à deux dimensions commençait à se développer dans l'industrie de la construction. Ces concepteurs personnels étaient difficiles à connaître et à utiliser, en grande partie parce qu'ils n'avaient pas été développés en gardant à l'esprit l'utilisateur final. Les interfaces utilisateur, pas encore standardisées, prenaient généralement la forme d'une ligne de commande avec sa syntaxe complète. Leurs capacités copiaient typiquement celles des processus conventionnels de conception et fournissaient souvent une petite part d'intelligence supplémentaire. Par exemple, il était souvent possible de changer la valeur numérique d'une dimension, sans que la longueur de la ligne dessinée ne soit modifiée, ni qu'il y ait de message d'avertissement. Certains petits systèmes simples le permettent encore aujourd'hui. Les avantages de ce type de CAO sont très limités - essentiellement la facilité de corriger un dessin et de le retracer. Le temps de production d'un dessin original peut souvent être aussi, sinon plus important que l'élaboration de ce même dessin sur une table à dessiner conventionnelle. Des caractéristiques plus sophistiquées ont été introduites rapidement, offrant de grands avantages. Ceux-ci commencent par l'amélioration des constructions géométriques telles que : L'attraction, par exemple sur la fin ou le milieu d'une ligne, sur les points d'une trame, sur les tangentes... ; La génération automatique des trames ; Les formes élastiques, incluant les lignes, rectangles, cercles et autres, permettant de les remplacer, de les déplacer, de les étirer et déformer ; Page 18

Le dimensionnement associatif, dans lequel une flèche de dimension est attachée en deux points d'un objet et modifie la valeur qu'elle affiche si l'objet est étiré ou déformé ; L'empilage, permettant à différents groupes d'information, par exemple relatifs à des détails architecturaux, aux fondations, à des détails de structure et différents équipements techniques du bâtiment d'être superposés sur un plan de base commun (voir figure 5) ; Les objets que l'on peut définir de telle sorte que l'on puisse modifier leur échelle et les placer n'importe où sur le dessin. De ce fait, la modification de l'information relative à une dimension particulière d'un objet défini influe sur les autres dimensions qui lui sont liées ; Les bibliothèques de symboles des formes géométriques standard, par exemple des détails architecturaux ou de structure. Ces bibliothèques ne servent pas seulement à faciliter le processus de dessin, mais elles peuvent aussi apporter des données qui peuvent être utilisées n'importe où, par exemple pour produire les métrés. On peut aussi créer ou acheter des bibliothèques de symboles supplémentaires pour des utilisations spécialisées. Ces aménagements sont maintenant passablement typiques des outils de CAO professionnels sur PC. On a introduit une intelligence un peu plus grande dans la manière dont, par exemple, les éléments sont représentés, en se mettant d'accord sur des relations spécifiques entre les éléments dessinés. Il s'agit là, cependant, d'un tribut à payer pour pouvoir stocker les données sous forme intelligente, dans la mesure où : C'est souvent à l'utilisateur qu'il appartient de spécifier les données supplémentaires ; Ceci nécessite un système de base de données sophistiqué et beaucoup de mémoire pour la machine ; Pour pouvoir tirer profit de l'intelligence, il faut une capacité de traitement significative. Les systèmes de dessin à deux dimensions ont encore un rôle à jouer dans la production des plans de disposition générale (plan masse), traditionnellement de la responsabilité de l'ingénieur conseil. Sauf si le système doit faire l'objet d'une utilisation ultérieure pour produire les plans de détail qui sont normalement sous la responsabilité du constructeur, il n'y a pas de réel avantage pour ce type d'utilisateur à avoir une approche de modélisation à trois dimensions de la structure. Un système 2D standard permet aussi une interaction facile avec les architectes et les ingénieurs chargés des équipements techniques du bâtiment. Il permet aussi l'intégration de différentes parties du travail de conception génie civil et structure par simple superposition de couches. Les dessins ou une partie d'entre eux, sont alors facilement recopiés, directement dans les packages de traitements de texte, pour la rédaction du rapport. Il peut aussi être possible, dans l'avenir, pour les systèmes 2D de se comporter comme des préprocesseurs partiels, en vue d'une modélisation complète de la structure. Page 19

10. MODELISATION TRIDIMENSIONNELLE DE LA STRUCTURE Les systèmes de CAO tridimensionnelle peuvent varier du simple modèle filaire n'agissant que sur des lignes, en passant par la modélisation des surfaces afin d'achever la modélisation solide, nécessitant une définition des données et des relations en compréhension, mais offrant d'énormes possibilités. Les systèmes tridimensionnels simples offrent peu d'avantages supplémentaires par rapport à la CAO 2D pour l'industrie de la construction. Cependant, le développement de formes spécialisées de systèmes de modélisation fournit une énorme puissance, avec un lien direct avec la fabrication de structures métalliques (y compris la conception de détail). Dans ce contexte, le modèle solide 3D est un moyen de représentation de la structure complète, différent de la CAO conventionnelle dans laquelle les éléments individuels sont simplement dessinés comme des formes plates. Ceci permet d'avoir une description complète de la structure métallique, comprenant les assemblages d'où on peut tirer automatiquement toutes les informations nécessaires, relatives à la fabrication et au montage. Ce modèle est créé, typiquement d'une manière analogue au séquencement de la conception elle-même, grossièrement défini au début et où progressivement on ajoute de plus en plus de détails là où ils sont nécessaires. Au départ, on définit la forme générale de la structure au moyen d'un modèle filaire (figure 6a). Ceci peut être fait à l'aide d'un cadre 3D constitué de lignes définissant des trames et des niveaux de données, correspondant à la disposition générale fournie par l'architecte ou l'ingénieur conseil. En modélisation 3D, il est aussi possible à ce stade de générer des dessins techniques plus détaillés, comportant des vues isométriques (figure 6b). Toutes les informations concernant les dimensions des éléments, les décalages de géométrie et les données supplémentaires comme par exemple les réactions d'appui issues des calculs peuvent être entrées très facilement. La responsabilité suivante du constructeur est de concevoir les détails des assemblages. La conception détaillée est facilitée si on utilise une bibliothèque de types d'assemblages standard (qui peut être «retaillée» de manière à correspondre aux besoins des entreprises individuelles et des clients) dont l'échelle sera automatiquement modifiée pour correspondre aux éléments à connecter (figure 7). On peut aussi réaliser des calculs de détails appropriés selon les règles agréées de calcul, sur la base des réactions d'appui déterminées lors de la modélisation filaire. Lorsqu'on a besoin d'assemblages non-standard, il existe des aménagements de modélisation interactifs permettant de construire les détails appropriés, soit à partir des principes de base, soit en modifiant les formes standard. Ils peuvent ensuite être ajoutés à la bibliothèque, en vue d'utilisations ultérieures. La définition d'un modèle 3D selon ce principe contient une description géométrique et topologique complète de la structure, incluant tous les points, bords et surfaces de chaque élément en acier. Il en résulte que toutes les dimensions des éléments sont automatiquement testées pour vérifier leur compatibilité, c'est ainsi que l'on peut enlever Page 20

facilement les sources de conflits qui existent dans les traitements traditionnels. Le modèle permet la génération efficace des informations de dessin conventionnelles, incluant les plans de disposition générale (plans, élévations, coupes, fondations, vues isométriques), tous les détails de fabrication en atelier de tous les éléments, les sousensembles et les ferrages et les calculs de tous les détails de surface et des volumes pour toute la structure métallique (figure 8, 9a et 9b). Un avantage ultérieur de tels systèmes est lié aux liens qu'il est possible d'établir avec d'autres parties du processus de fabrication. Il est possible de réaliser des gabarits en vraie grandeur, par exemple pour les goussets et d'enrouler des gabarits pour obtenir des tubes. On peut sortir les dessins de montage, créer automatiquement les listes d'éléments (incluant les détails du découpage, des sous-ensembles, pièces, boulons...). Un interfaçage avec des systèmes informatiques de gestion (systèmes MIS - Management Information Systems) peut aussi faciliter le contrôle des approvisionnements, l'estimatif, la comptabilité... La possibilité de transférer directement les données aux machines à commande numérique (CN) permettant d'automatiser une grande partie du travail de fabrication en lui-même constitue une potentialité d'une très grande importance. A ce stade, la modélisation 3D représente l'outil de commande central du mécanisme de construction intégrée en acier, dans lequel est offert tout le package conception-construction. En des termes plus généraux, la modélisation par surfaces fournit des informations supplémentaires sur le modèle 3D. Au niveau le plus simple, mais probablement le plus gênant, cela peut prendre la forme de la définition des limites à l'intérieur desquelles se trouve une surface avec des caractéristiques données. Des techniques de modélisation par surfaces plus sophistiquées, telles que les surfaces élastiques qui permettent à une surface d'être étirée et pressée à l'intérieur d'une forme donnée ne concernent pas directement la plupart des travaux de construction, mais sont très utiles lorsqu'il s'agit de décrire des formes de coques, par exemple concernant la conception et la fabrication de la carrosserie d'automobiles. Il se peut que des développements en modélisation de structures acier du type de ceux précédemment décrits constitue un moyen pratique d'intégration des modèles filaires avec les modèles par surfaces de l'enveloppe du bâtiment et de la visualisation architecturale, mais au moment d'écrire ces lignes, ce n'est pas encore une réalité. Ce sont les plans de disposition générale qui ont typiquement fourni les bases du métré utilisé pour la soumission. La préparation d'un métré nécessite de connaître le poids de l'acier des différentes parties de la structure à calculer, y compris la prise en compte des attaches et des assemblages, ainsi qu'une brève description des opérations nécessaires pour la fabrication et le montage. Les spécifications qui peuvent être en grande partie sous forme standard, fournissent des informations complémentaires, par exemple concernant le système de protection contre la corrosion qui est utilisé. Le métré est traditionnellement fait à la main. Cependant, si on utilise un bon modeleur 3D, la sortie qu'il fournit peut prendre la forme d'un métré, avec les quantités mentionnées automatiquement. L'avantage de cette technique est non seulement de diminuer le temps passé à des calculs fastidieux, mais aussi de minimiser les erreurs potentielles dans les quantités. En tant qu'élément des dessins de détail de la structure acier, chaque pièce a un numéro de référence unique. Ce nombre est utilisé pour identifier chaque pièce de travail lors des opérations ultérieures de fabrication et de montage et sert aussi de base à Page 21

la liste d'éléments servant à commander les approvisionnements et à organiser la fabrication. Dans un contrat de type conception-construction, on n'utilise pas de métré formel. Au lieu de cela, l'entreprise de construction métallique doit estimer une somme globale sur la base de son expérience et de calculs préliminaires. Lorsque le contrat est signé, le constructeur fait les calculs de conception et la préparation générale des plans. Il est nécessaire ensuite de fournir des listes préliminaires d'achats permettant de faire les approvisionnements auprès des laminoirs ou des grossistes et le séquencement des opérations suit un chemin similaire à celui des méthodes d'équipement plus traditionnelles. Dans cet environnement aussi, il est clair que l'utilisation d'un bon modeleur 3D peut accroître la précision de l'estimation des quantités, même avant d'avoir un modèle solide détaillé complet. Page 22

11. LA COMMANDE NUMERIQUE DANS LA FABRICATION Les méthodes traditionnelles de préparation des éléments métalliques destinés à la construction - découpage à longueur, perçage, fabrication des attaches (échantignoles, consoles ) et le montage de sous-ensembles (par exemple les fermes) étaient de fortes consommatrices de main d œuvre et se basaient sur les informations précises des plans de détail de la structure métallique. Les phases de mesurage et de marquage étaient réalisées à la main en utilisant des gabarits, typiquement en bois, pour les détails compliqués ou répétitifs. Des machines-outils appropriées (scies, perceuses...) étaient alignées à vue et chaque opération réalisée à la suite, la pièce étant transportée entre les différentes machines. Les sous-ensembles étaient typiquement mis ensemble sur une dalle de montage sur laquelle la forme de la géométrie avait auparavant été dessinée en utilisant des méthodes de tracé traditionnelles. L'introduction des machines à commande numérique (CN) a rendu possible le fait que des détails de préparation, tels que la longueur totale et la position des trous, soient définis de façon numérique au moyen d'une console d'ordinateur. L'équipement de transport positionne automatiquement la pièce en fonction de la machine outil qui réalise ensuite les opérations nécessaires. De cette manière, les opérations à forte main d œuvre comme le marquage, le positionnement et la préparation sont intégrées à l'intérieur d'un traitement unique qui conduit à des améliorations importantes de l'efficacité de fabrication, en particulier lorsqu'il s'agit d'opérations relativement standard ou répétitives. On peut même obtenir une efficacité encore plus grande en transférant les informations nécessaires à l'usinage directement à partir du modeleur de construction métallique vers les machines à commande numérique, plutôt qu'en le transcrivant manuellement à partir des plans ou des spécifications papier. Cette procédure nécessite un modeleur informatique capable de fournir les données relatives aux opérations d'usinage directement dans le bon format. Les données peuvent ensuite être transférées soit par écriture sur une disquette qui pourra ensuite être lue par une machine à commande numérique, soit par une connexion réseau directe entre la machine et la station de CAO. Au moment où ces lignes sont écrites, seule une minorité d'installations de fabrication disposent d'une intégration informatique complète de ce type en raison des incompatibilités entre le matériel informatique et les machines-outils, mais cette intégration est, bien évidemment, capable de contribuer à une efficacité bien plus grande et à une meilleure qualité que les traitements actuels semi-automatiques. Page 23

12. L'AVENIR Faire des prédictions concernant les développements futurs de l'informatique est notoirement risqué. Cependant, la tendance à l'accroissement de la puissance des ordinateurs avec une augmentation du prix faible, voire nulle, ne montre pas de signe de ralentissement, suggérant ainsi que l'utilisation de l'informatique va encore, probablement, se répandre plus avant. Les applications qui nécessitent actuellement des quantités de traitements excessives ne les rendant pas pratiques, deviendront utilisables. L'évolution des interfaces utilisateur graphiques semble avoir atteint un plateau, mais l'application du graphisme peut très bien se répandre encore plus, avec, par exemple, des applications de «réalité virtuelle», permettant aussi bien à l'ingénieur de structure qu'à l'architecte une visualisation réaliste de leurs nouveaux développements. Cette application a déjà donné lieu à des exemples de démonstration, pour un petit nombre de constructions nouvelles. Les calculs de conception habituels peuvent devenir plus sophistiqués, permettant ainsi éventuellement l'accès à des solutions plus osées, mais le danger est que le concepteur devienne excessivement dépendant de la puissance de calcul de sa machine. La simple compréhension du comportement général d'une structure est encore indispensable. On peut être tenté d'utiliser des méthodes particulièrement élaborées d'analyse et de conception, mais l'ingénieur doit toujours se demander si elles sont appropriées, en gardant en particulier à l'esprit les imprécisions inévitables concernant les charges de calcul, les résistances des matériaux, etc. Le danger est aussi de vouloir affiner les dessins jusqu'à un niveau excessif, en voulant optimiser l'efficacité de la structure. Par exemple, une structure dans laquelle tous les éléments métalliques ont été conçus pour un poids minimum donnera lieu au tonnage global le plus faible, mais presque certainement aux dépens de coûts de fabrication et de montage accrus. Certains aspects de la conception en acier, par exemple la résistance au feu, ont traditionnellement été traités d'une manière archi-simplifiée et l'accroissement de l'utilisation de l'informatique va, à juste titre, permettre à des approches plus rationnelles d'être prises en compte plus fréquemment dans les calculs de conception. D'autres aspects du comportement de la structure ont souvent été tout simplement ignorés. L'analyse dynamique, par exemple, est un sujet de spécialistes que le concepteur va être amené à considérer de plus en plus en détail et une fois de plus le modèle informatique intégré pourrait, en ce qui concerne la conception, permettre de le faire sans douleur. De plus en plus, le concepteur va créer un modèle intelligent de sa structure et le confronter à un grand nombre de scénarios de conception, tout en observant et en interprétant les réponses qu'il obtient. A cet égard, l'aspect graphique, une fois de plus, va probablement devenir prépondérant, en tant que visualisation du comportement, plutôt qu'en tant que présentation d'un listing de résultats numériques nécessitant une interprétation soigneuse. Dans les bâtiments faisant appel à des formes géométriques complexes, comme pour le Terminal International de Waterloo, l'utilisation de méthodes de dessin conventionnelles Page 24

aurait été quasiment impossible. Dans ce cas, on a utilisé un modeleur 3D pour établir la géométrie d'une travée unique du système en treillis en arc à trois articulations. Elle a servi de point de départ pour toute la toiture et a aussi facilité la mise en place sur le chantier, par l'intermédiaire d'un grand nombre d'éléments de positionnement fixés à chaque arc qui pouvaient ensuite être mis en position sur le site au moyen de coordonnées tridimensionnelles précises et d'équipements conventionnels de mesure électronique des distances. L'intégration des ordinateurs à chacune des différentes étapes de la conception et de la construction ne conduit pas seulement à une amélioration de l'efficacité par le transfert automatique des données, mais elle étend aussi l'informatique à des domaines pouvant être considérés comme n'ayant pas d'importance. Si la conception de l'esquisse comporte la création d'un modèle 3D filaire simple de la structure, les calculs des charges deviennent alors presque automatiques. Même si ce n'est pas une partie difficile des calculs techniques, c'est quelque peu ennuyeux et une détermination automatique du chargement donnerait lieu à des économies de temps intéressantes. Il est éventuellement possible que les systèmes experts qui n'ont eu jusqu'à présent que des succès limités en calcul de structure, puissent être utiles, au stade de l'idée générale, en permettant l'intégration de la forme de la structure avec les équipements techniques et les exigences d'utilisation du bâtiment. Ces développements qui dépendent tous de l'établissement d'une structure universelle et commune de base de données permettront le partage de l'information concernant une structure entre différentes applications, de telle sorte que la modification d'une donnée résultant d'un traitement passe automatiquement à travers les autres traitements qui lui sont reliés, de manière à assurer sa cohérence. Les concepts de programmation orientéeobjet et les bases de données relationnelles constituent le véhicule de ces développements. On a vu que le modeleur 3D était déjà relié à l'usinage de fabrication, ainsi qu'à d'autres aspects du bâtiment vu dans son ensemble. Ce lien va vraisemblablement devenir plus courant au fur et à mesure du développement de structures de données standard et les constructeurs exploiteront ces améliorations de l'efficacité offertes par l'intégration. Ce lien peut être étendu vers l'organisation du chantier, permettant un contrôle plus précis des livraisons et des opérations sur les composants, là où il est effectivement possible de réaliser d'importantes améliorations de l'efficacité. L'intégration va aussi sans doute s'étendre à des domaines qui ne sont pas de la structure, comme par exemple, l'étude des besoins en énergie, l'éclairage naturel... le tout étant intégré et utilisant une même base de données centrale. Page 25

13. CONCLUSION Les dispositifs informatiques continuent à subir des améliorations de façon extraordinaire et leur utilisation a maintenant un retentissement important sur le coût pour une vaste gamme d'activités dans le domaine de la construction. Les interfaces utilisateur graphiques interactives sont devenues standard, rendant ainsi plus facile l'utilisation de l'ordinateur pour les non-spécialistes. A l'intérieur du processus de conception et de construction, il est nécessaire de disposer de différents aménagements selon les entreprises. Plus le degré d'automatisation du transfert de données entre différentes applications est grand, plus le processus global est efficace. Page 26