UNIVERSITÉ PARIS8 VINCENNES À ST-DENIS UFR ARTS, PHILISOPHIE, ESTHÉTIQUE Département de musique

Dimension: px
Commencer à balayer dès la page:

Download "UNIVERSITÉ PARIS8 VINCENNES À ST-DENIS UFR ARTS, PHILISOPHIE, ESTHÉTIQUE Département de musique"

Transcription

1 UNIVERSITÉ PARIS8 VINCENNES À ST-DENIS UFR ARTS, PHILISOPHIE, ESTHÉTIQUE Département de musique Une approche de la musique mixte en temps réel : la mixité et l interaction Javier CAMPAÑA Mémoire de Master 2 réalisé sous la direction de Mme Anne SEDES Année Universitaire

2 2

3 INDEX Introduction 1. Première partie. Caractériser la musique mixte en temps réel Introduction 6 Questions sur la forme 7 Questions du contrôle et du mapping 9 Le traitement du son 17 L articulation du son pre enregistré : le temps différé 19 Espace-son 21 La mixité et l interaction Deuxième partie. Qualifier la musique mixte en temps réel «Tentatives de Réalité» : étude de l analyse gestuelle et sonologique Introduction 35 Cadre conceptuel 36 La structure et la mixité 39 L écriture instrumentale 41 L écriture électronique 44 Conclusion 55 «Os Oris» : une approche de la composition d interactions 3

4 Introduction 58 Cadre conceptuel 59 Le trombone : une ressource d événements émergentes 60 La partition 63 La forme 64 Transformations du sons 67 Le contrôle : transformation DSP spécifiques au son 70 Principes poïétiques chez Di Scipio 72 Conclusion Troisième partie. Composition «Luz» Introduction 77 Principes poïétiques 78 La structure de la pièce 79 L écriture instrumentale 80 L écriture du patch 80 La mixité et l interaction 83 Conclusion Conclusion 87 Bibliographie 90 Anexo I Partition de la pièce Luz 93 4

5 Introduction Ce mémoire a comme sujet l'étude de la musique mixte en temps réel à partir de l'analyse de différentes pièces représentatives. En tant que compositeur, je constate que bien des questions sont soulevées à l heure d aborder un projet musical. Mon travail consiste donc à trouver des solutions à ces questions à partir de la recherche des pièces qui montrent des difficultés à différents niveaux de la composition: niveau esthétique, pratique, technique, et interprétatif. Nous étudierons les sujets de la mixité et de l interaction, comme une des principales énigmes pour la composition de musique mixte en temps réel aujourd hui. Dans une première partie, nous tacherons de caractériser la musique mixte en temps réel à partir d une étude des aspects significatifs comme la forme, l écriture, la conception de la programmation, l aspect temporel de la musique ou encore la question du contrôle du patch. Nous parlerons aussi des principes autour de la mixité et de l interaction : Que recherche le compositeur avec le principe d interaction? Quels sont les fondements du compositeur pour aborder la mixité? Dans une deuxième partie et après cette caractérisation, nous tenterons de «qualifier» la musique mixte en temps réel. Même si on n a pas besoin de se «risquer» à qualifier ou à évaluer la qualité artistique ou le niveau esthétique que la musique mixte peut avoir, nous offrirons des critères significatifs et personnels pour la caractérisation de la musique mixte en temps réel à partir d une approche analytique de deux pièces mixtes en temps réel. Dans la dernière partie de ce mémoire, je me suis permis d'intégrer une de mes propres pièces, un projet appelé "LUZ". C est une composition réalisée dans le cadre de 5

6 mon séjour comme étudiant à l'université de Birmingham et à l Université de Cardiff, dans un programme de mobilité internationale des étudiants "Erasmus". 6

7 Premier chapitre 1. Caractériser la musique mixte en temps réel 1.1 Introduction Comment définir la musique mixte en temps réel? Nous ne prétendons pas faire une classification des styles de la musique électroacoustique ou faire une distinction des différentes formes de la musique mixte. Nous tenterons de situer d une façon très brève la musique mixte en temps réel dans son contexte et de clarifier la question de terminologie autour de ce sujet. Le terme musique mixte ou électronique en direct «date de l époque analogique de la musique électroacoustique et désigne une performance utilisant des instruments électroniques en temps réel. Actuellement, ce terme est plutôt employé pour désigner une musique réalisée avec des instruments interactifs 1». L histoire de la musique mixte en temps réel commence probablement avec une pièce de John Cage, Cartridge Music (1960), dans laquelle des têtes de lecture de phonographes sont utilisées comme transducteurs de sons divers. L œuvre de Stockhausen Mixtur (1964) est un autre exemple de musique mixte dans laquelle le résultat sonore vient de la transformation d un signal instrumental synthétisé pour la technique de modulateur en anneau à partir de la génération des sons sinusoïdaux. Ces transformations sont réalisées en «temps réel», dans la mesure où les sons résultants sont produits quasi simultanément avec les sons originaux. «Le temps réel est en réalité un temps différé inférieur au seuil de perception de l oreille humaine, que l on situe en dessous de cinquante millisecondes». (Tiffon, 1994 : 78). L intérêt des musiciens et des institutions pour le développement de la musique mixte est motivé par le besoin de nouveaux synthétiseurs et de matériels informatiques 1 Définition de la musique mixte en temps réel : 7

8 plus puissants et plus maniables. Nous pouvons observer comment l évolution de la musique mixte est très rapide dans les années 70 et 80. L informatique se situe comme le principal moteur de développement de la musique mixte et la recherche s accélère autour des manipulations, transformations et synthèses en temps réel. La question de la terminologie est toujours difficile d aborder parce que l évolution du concept de musique mixte et de temps réel est très rapide et a été confrontée aux sujets parallèles comme l interaction, la mixité et le synchronisme entre autres. En tout cas, la musicologie classifie ce type de musique avec les termes musique mixte en temps réel ou électronique en direct, bien que l utilisation du terme live electronic, de l anglais, est aussi très courante Questions sur la forme Y a-t-il des formes spécifiques dans la musique mixte en temps réel? Nous devons nous interroger sur la relation entre les structures formelles du passé et l apparition de nouvelles structures à l heure de parler de la forme musicale dans le temps et ses conséquences structurelles. La réponse à cette question nécessite une réflexion approfondie parce que la thèse de l'existence de nouvelles structures musicales dans la musique mixte en temps réel demande beaucoup d'étude et d'analyse. La composition de musique mixte en temps réel, a priori, n'implique pas l'apparition de nouvelles structures formelles, mais il faut tenir en compte que la manière de conduire cette musique change. Les structures de la musique dans la composition en temps réel sont, dans la plupart des cas, conditionnées par le traitement électronique. Les possibilités de l électronique en directe sont presque illimitées et la composition du son est abordée du point de vue très différent. Si le matériel peut avoir 8

9 une nature différente, l organisation globale de la pièce va changer aussi. Le matériel et la structure forment un ensemble compact et indissoluble. C'est très important d établir une différence entre la composition du son et la composition avec des sons, et l influence que cela peut avoir sur la structure. Quand nous parlons du matériel, nous faisons référence à la composition du son dans une échelle temporelle petite, c est-à-dire, que nous travaillons sur le matériel et non avec le matériel. C'est la composition de la morphologie du son, la composition du son lui-même. Une fois que nous sommes dans un autre niveau structurel, nous pouvons jouer avec ces éléments composés qui sont combinés pour créer une syntaxe sonore. Nous sommes intéressés par la manière d'affronter cette syntaxe sonore, pour la construction des structures à différents niveaux. On est dans le paradigme vaggionien (Laliberté, 2007 : 163) des différents niveaux temporels dans la musique. La composition du son, ou l'échelle micro temporelle; la création d'une syntaxe sonore, ou niveau mezzo temporel ; et l'idéalisation d'une forme à un niveau supérieur, c est-à-dire, la construction de la macro forme. Pour retourner au sujet de ce mémoire, le traitement électronique influe sur la composition du matériel et la diversité dans le matériel va faire apparaître une nouvelle syntaxe sonore, basée sur d'autres principes. Comme résultat de tout ce processus, nous aurons une syntaxe qui va faire resurgir des formes structurelles spécifiques. Le traitement électronique des sons à partir de logarithmes et fonctions appliquées sur les logiciels, influe évidemment sur la nature du matériel. Nous trouvons le matériel originel et le matériel traité. Les possibilités changent d'une manière illimitée et pourtant la syntaxe et la forme de la musique elle-même change. De plus, la structure globale de la pièce peut être construit bien à partir de la conception préalable des structures soutenues sur formes classiques (sonate, rondeau etc) ou bien à partir de modèles théoriques (formes en blocs ou formes en sections...etc.). Nous avons a priori une conception de la forme qui nous aide à articuler 9

10 la structure de la pièce. Nous pouvons dire que la macro-forme est construite dans le début du processus et que son choix a eu une importance capitale, de la même manière que quand nous choisissons les instruments ou les sources sonores. La question que nous devons nous poser dans ce cas est la suivante: le traitement électronique influe t-il sur la conception d'une structure préalable soutenue sur modèles théoriques ou bien appuyée sur la nouvelle conception d'une structure originel? Et cette réflexion nous conduit à la question suivante: Y a-t-il des formes spécifiques dans la musique mixte en temps réel? On peut dire que le choix d un modèle pré- déterminé pour une structure musicale dans la musique mixte en temps réel ne doit pas être conditionné par l électronique. Par exemple, nous pouvons choisir une forme en diverses sections. On aura besoin des parties différentes et pour les construire, nous utiliserons l électronique comme outil pour la composition. Mais l électronique ne conditionne pas le choix. Dans un autre cas, l électronique peut nous aider à construire la forme. Nous pouvons nous servir des possibilités que l électronique offre pour articuler les différentes sections d une pièce. Nous ne parlerons pas de formes spécifiques dans la musique mixte en temps réel, mais des formes ou structures attachées au traitement électronique. Dans le deuxième chapitre de ce mémoire, nous étudierons la forme dans une pièce d Hèctor Parra. La pièce est construite à partir de l enchaînement de différentes sections. Parra a organisé la structure en fonction de l énergie sonore de la source, le violoncelle et le traitement électronique produit. La forme de la pièce est conditionnée par le traitement du son, mais la structure n a pas de nouveauté Questions du contrôle et du mapping Que pouvons nous contrôler dans la musique mixte en temps réel? 10

11 Normalement nous avons dans la scène deux parties, l instrumentale et le dispositif électroacoustique. Évidemment, les musiciens interprètes ont le contrôle sur les instruments en utilisant des gestes d interprétation instrumentale à partir d une notation écrite ou à partir d une improvisation. Mais, comment avons nous le contrôle de ce dispositif électroacoustique? Des valeurs numériques contrôlent tout le système électroacoustique : traitement du son, déclenchement des sons, trajectoire du son dans l'espace... etc. Les valeurs peuvent être fixes ou bien variables. Les fixes sont des données statiques qui restent immobiles dans une séquence musicale, c est-à-dire, dans une période du temps dans la pièce. Les valeurs sont programmées par le compositeur en fonction des besoins dans le dispositif. Par exemple, la ligne de retard temporel dans la programmation sera de 300 millisecondes pendant la première séquence. La valeur 300 sera toujours la même, sans aucun changement. Les valeurs variables sont des données qui changent en fonction d'un ou plusieurs paramètres externes. Après une analyse de ces paramètres, on obtiendra des valeurs qui changent parallèlement aux paramètres choisis. Par exemple, nous pouvons obtenir l'amplitude du signal d'entrée à partir de l'analyse du son en temps réel. Les valeurs reçues sont toujours variables et contrôleront la vitesse de déplacement du son dans une trajectoire entre les haut-parleurs. Comment pouvons nous changer les différentes séquences présentes dans la pièce? La programmation informatique qui régule le dispositif électroacoustique peut changer de manière manuelle ou automatique. La façon manuelle nécessite l intervention physique d un technicien ou du même musicien qui s occupe de la programmation. La manière automatique a besoin de l analyse d un événement sonore qui envoie l information pour changer la séquence. Par exemple, dans le cas automatique, nous pouvons changer la séquence dans la programmation à chaque fois que l instrument joue des fréquences plus hautes que 880 Hz. Pour réaliser cette opération nous aurons besoin d une analyse de fréquences. 11

12 Nous avons des différents facteurs externes à analyser si nous voulons que la programmation change à partir des valeurs variables et en fonction de l analyse des divers paramètres. Nous aurons un contrôle dynamique à partir de l analyse du son d entrée (du son instrumental et / ou du son d ambiance), ou à partir de l analyse des outils périphériques mécaniques. Les périphériques mécaniques peuvent être outils de contrôle très efficaces parce que la programmation répond de façon dynamique aux changements d état à partir d une analyse des valeurs. C est-à-dire que nous pouvons contrôler le comportement du patch avec l aide des périphériques mécaniques. Par exemple, si nous voulons régler le niveau de feedback dans un module de ligne de retard avec une caméra de vidéo. Le système analyse le niveau d éclairage perçu par la caméra et avec une mise en correspondance des donnes, le feedback changera d une façon dynamique. Si l éclairage est plus grand, nous obtiendrons plus de feedback. L analyse du son en direct est un outil très puissant pour contrôler n importe quel aspect de la programmation dans la musique mixte en temps réel. Dans l'écriture électroacoustique actuelle, nous trouvons plusieurs outils 2 - objets pour l'analyse du son. Nous analyserons des paramètres relatifs au son comme la hauteur, l'amplitude, la brillance, le niveau du bruit, l'attaque...etc. Les objets d'analyse du son en temps réel ont été développés depuis la naissance du live électronique dans le domaine informatique. Par la suite, nous montrerons une liste des objets 3 pour l'analyse du son en temps réel: peakamp~ -- objet qui permet d analyser le niveau d'amplitude pith~ / fiddle~ -- objet qui permet de faire un suivi de la hauteur loudness~ -- objet qui analyse la puissance de l'énergie spectrale brightness~ -- objet qui analyse la mesure du centre spectrale noisiness~ -- objet qui permet une estimation du niveau du bruit 2 3 Nous utiliserons le mot objet pour définir les outils de programmation informatique. Même si la liste est très grande, nous montrons les objets le plus utilisés 12

13 bonk~ -- objet qui analyse le niveau de puissance des attaques produites pour le son Les objets fiddle~ et bonk~ sont développés pour le théoricien et musicien Miller Puckette 4. L'objet peakamp~ forme partie de la bibliothèque du Max SMP. Nous pouvons trouver le reste dans le site Web du musicien Tristan Jehan 5. Exemple nº1 : utilisation de l objet fiddle~ Pour utiliser les valeurs que l analyse nous offre, nous aurons besoin d une mise en correspondance entre ces valeurs d origine et les données de contrôle, c est-à-dire que nous avons besoin d un mapping de données. Le mapping «est une opération de mise en correspondance qui permet de passer d une échelle de base à une autre échelle de manière linéaire ou non» 6. «Dans le contexte des arts interactifs et des environnements virtuels, la conception d un mapping, d une mise en correspondance des échelles, intégrant éventuellement la dynamique du Groupe de travail de visualisation du son 13

14 geste interacteur (geste instrumental, geste dansé ou interagissant), a directement à voir avec la composition, avec un mode d écriture spatialisé à n dimensions» 7. Le musicien Timothée Baschet, étudiant à l Université de Paris VIII, nous propose un tutorial pour Max/MSP 8 afin de nous montrer les possibilités du mapping et de visualiser les possibilités des objets proposés dans le logiciel. Baschet fait référence au mapping linéaire, non-linéaire et exponentiel, et utilise divers objets de la programmation tels que zmap, scale, expression, table et function pour expliquer les fonctions dans la mise en correspondance. Les différentes manières d'aborder une mise en correspondance nous permettre une variabilité extraordinaire et une diversification des valeurs avant d'établir le processus du contrôle pour la composition. L image suivante présente l étude de Baschet autour du mapping dans le tutorial de Max/MSP : Exemple nº2 : tutorial mapping. T. Baschet 7 A. Sedes : Espaces sonores, espaces sensibles, in Espaces sonores, actes de recherche, EMT, Paris, Max/Tutorial mapping.mxb 14

15 Nous avons construit un patch pour expliquer un cas de mapping où le niveau de bruit du son d entrée a contrôlé le changement de valeurs dans l objet freqshift, un objet qui modifie la fréquence du son en modifiant aussi la relation proportionnelle entre ses partielles. Nous avons utilisé l objet zmap, qui permet une mise en correspondance linéaire. Les donnes perçues par l objet noisiness vont de 0 à 1. Quand le niveau de bruit sera minimal (valeur 0), le modulateur de fréquence sera de Quand le niveau de bruit sera maximal (valeur 1), l objet freqshift aura une valeur de Dans ce cas, la valeur de l objet est 0.65 et la modulation de fréquence est de Exemple nº3: mise en correspondance La problématique dans le changement de salles ou des interprètes. Quand nous faisons le réglage du mapping pour l'utilisation d'un patch dans un concert du live électronique, nous établissons une mise en correspondance de différentes échelles. Nous trouvons souvent le problème de justesse du mapping à l'heure de l'interprétation d'une pièce mixte en temps réel dans différentes salles ou avec des différentes interprètes. Les données reçues ne sont pas les mêmes et le processus de réglage n'est pas toujours facile. Les valeurs maximales et minimales changent et la mise 15

16 en correspondance que nous avons faite n'a pas la finesse précise. Ce problème est relatif surtout aux valeurs précédentes de l'analyse d'amplitude (peakamp~) et d'attaque (bonk~). Par exemple, nous tenterons de faire une mise en correspondance entre l amplitude du son d entrée et le niveau de granulation dans une pièce mixte en temps réel pour saxophone et électronique. Si on change l interprète, nous devons changer les valeurs du mapping. Le pianissimo (ppp) d un interprète ne sera jamais similaire au ppp d un tel autre. La sonorité ppp d une interprète peut donner une valeur de 0.26 dans l objet d analyse d amplitude. Par contre, un autre interprète peut avoir dans le ppp valeurs autour de Nous avons besoin des valeurs minimales et maximales pour avoir une finesse dans le réglage. L image suivante nous montre comment deux saxophones en jouant ppp, offrent des niveaux d amplitude différents. Exemple nº4: Réglage de l amplitude Pour régler toutes ces différences d équilibre entre les différentes performances, nous pouvons utiliser l objet ranger, fait par le compositeur et technicien Jonathan 16

17 Green 9. L'objet capte les valeurs maximales et minimales des données d'entrée et la mise en correspondance est faite d'une manière automatique. Exemple nº5: utilisation de l objet ranger Une fois qu'on clique dans l objet toggle attaché à l objet ranger, nous recevons toutes les valeurs qui viennent de n importe quelle analyse d un paramètre extérieur et qui sont reliées aussi à l objet ranger. Mais on obtient seulement les valeurs maximales et minimales, les seules valeurs qui nous intéressent pour le réglage. En fermant le toggle la calibration et le réglage sont effectués et la mise en correspondance commence à être valable. Par défaut, les valeurs de sortie de l objet ranger seront 0 et 127. Nous pouvons les modifier en écrivant les nouvelles valeurs comme argument de l objet ranger

18 1.1.3 Le traitement du son Le traitement et modification du son en temps réel est la base de la composition mixte en temps réel et est une des opérations la plus utilisée. Depuis des premiers projets dans le domaine analogique dans les années 60, la naissance de l ordinateur comme outil de traitement du son provoque tout un développement dans les années 80 et 90. Le système numérique commence à être très puissant et capable d introduire de nouveaux processus du traitement du son. Les techniques du traitement du son en temps différé sont accueillies par le système numérique en temps réel et sont dans le même temps améliorées. L énorme développement de la technologie dans les années 90 favorise la naissance de systèmes numériques très puissants, d ordinateurs capables de faire des opérations très complexes dans une très courte période du temps. Le musicologue Martin Laliberté prend conscience de tout ce développement technologique dans le domaine scientifique: «Cette évolution serait aussi à mettre en correspondance avec celle des sciences contemporaines : physique de la relativité et physique quantique, théories des ensembles, fractales et systèmes dynamiques non linéaires, sciences du chaos, etc.» (Laliberté, 2007 : 167). Il y a une liste illimitée de processus de traitement du son en temps réel. La flexibilité des logicielles permet de construire très facilement des traitements du son complexes à partir de logarithmes numériques très puissantes et très développés. Nous ne pouvons pas aborder toute cette variété, mais on peut parler de différentes catégories qu englobent les processus du traitement du son. Ces catégories du traitement peuvent localiser la musique dans une ou autre courante esthétique. Depuis les années 80, les techniques de granulation offrent de nombreuses variantes dans le traitement du son en temps différé. Déjà suggérée par Xenakis dans les années 50, la technique de la granulation est développée par Curtis Roads en Il 18

19 «propose une technique capable de produire des masses d une très haute densité composées par des événements sonores infinitésimaux» (Justel, 2000 : 100). Après huit ans, Barry Truax crée au Canada un système de synthèse en temps réel. Depuis l étude de Truax, l utilisation de la synthèse granulaire du son a été employée par des moyens très divers. La synthèse granulaire en temps réel nous offre aujourd hui d'immenses possibilités. L objet de Max SMP munger est un des outils les plus puissants pour la granulation en temps réel. L objet fait partie de la bibliothèque Percolate 10, une collection d objets pour la synthèse du son et de l image dans Max SMP. Parmis ses multiples fonctions, l objet permet d une façon très simple d établir la séparation entre les grains, le taux de variation du grain, la taille du grain, la hauteur du grain et sa variation, la taille de la variation de hauteur du grain et l étendue dans la disposition stéréophonique du son etc. Exemple nº6: réglage de l objet munger La synthèse sonore en temps réel permet de recréer les sons d'instruments naturels en direct. Les systèmes numériques d aujourd hui offrent beaucoup de ressources. Le changement du timbre est un des processus les plus récurrents dans la musique mixte en temps réel. La manipulation du son dans sa structure interne a toute une palette de possibilités et de couleurs très désirées pour les compositeurs. Également, nous pouvons trouver des objets numériques qui permettent la réalisation en temps réel de synthèses très connues et utilisées dans le domaine

20 analogique. Nous trouvons des processus tels que : la synthèse FM, la synthèse par modulation d amplitude ou par modulation en anneau, la synthèse par échantillonnage d enregistrements sonores etc, ou des processus plus actuelles comme la synthèse par modèles physiques. Avec les outils numériques en temps réel nous pouvons générer toute une étendue de sonorités très riches et variées L articulation du son pre enregistré : le temps différé La gestion des sons traités en temps différé pour la musique mixte en temps réel peut être très flexible. Nous n avons pas besoin de réduire le nombre des sons pre enregistrés qu on veut déclencher parce que la puissance et mémoire des ordinateurs actuels permettent une capacité de stockage très grande. Les nouveaux systèmes permettent de déclencher de sons stockés d une façon multiple et avec une articulation très dynamique. La bande du son avec laquelle les compositeurs ont travaillée dans la musique mixte des années précédentes a été faite dans un seul bloc. Ce système à beaucoup conditionné l interprétation et la musique en soi parce que c était un système très rigide et très peu flexible de conduire le discours musical. Dans la musique d aujourd hui, nous pouvons faire de multiples déclenchements de sons pre enregistrés selon le choix du compositeur ou des autres facteurs d analyses et interactions du son. Le système peut répondre très docilement aux besoins du compositeur en laissant aux interprètes une liberté et une flexibilité totales. 20

21 Quand et quels sont les sons qui vont être déclenchés? Quand nous articulons les sons pre enregistrés, la programmation d un patch peut répondre aux déclenchements manuels du technicien, aux déclenchements automatiques pre - programmés dans une séquence de la pièce ou bien aux déclenchements automatiques à partir de l analyse d un ou de plusieurs paramètres du son ou du geste instrumentale. Comme nous le constatons, la flexibilité est totale et l articulation peut être très élastique et variable. Le système de déclenchement du son peut avoir des sons pre-localisés dans la pièce avec une situation fixée ou des sons avec une localisation flexible, en fonction de l analyse d un paramètre déterminé. L image suivante nous montre un exemple de déclenchement du son en fonction de l analyse du geste instrumentale 11. Imaginons que le patch nous indique que le mode de jeu est écrasé et que le son porte une fréquence basse et en même temps est très court. Le patch choisira la bibliothèque «glotte» (qui est en relation avec le mode «écrasé»), le dossier «high» (pour avoir un principe de compensation de fréquences) et un des dix sons procédant du dossier «long» (pour équilibrer la durée entre les sons directs et les sons déclenchés). Exemple nº7: déclénchement du son en fonction de l analyse du geste 11 L image présente un dossier qui fait partie de la banque de sons utilisée par Hèctor Parra dans sa pièce «Tentatives de réalité». 21

22 1.1.5 Espace-son L intérêt pour l espace et sa relation avec la musique a été présent tout au long de la musique du siècle XX. «Alors que, par le passé, rares furent les tentatives de penser le son en fonction de sa trajectoire spatiale, les compositeurs de ce siècle ont manifesté un intérêt croissant pour la localisation du son». (Makis, 1997 : 211). Le musicologue Makis Solomos parle des deux paradigmes établis à propos de l espace physique et de la musique : une, le paradigme de l espace comme métaphore et autre, «le paradigme de l espace comme dimension à part entière du son, sa cinquième dimension». (Makis, 1997 : 212). La naissance de la musique électroacoustique contribue au développement de la notion de l espace. L utilisation de haut-parleurs met l accent sur la localisation et le déplacement de l énergie sonore vers la salle. Comme Vaggione dit, «les sources instrumentales ne sont plus entièrement fixes, ou limitées aux déplacements simples de quelques instruments portables. On entend, bien sûr, les instruments en direct, dont le point de rayonnement est fixé dans l espace de la scène auditive. Mais ils sont maintenant doublés et démultipliés par leurs images mobiles qui circulent au moyen des hautparleurs. Cela enrichit certainement les sons instrumentaux en les déployant et les dépliant dans un espace complexe». (Vaggione, 1997 : 165). La notion de l espace se trouve fondamentale dans la musique mixte. L utilisation de haut-parleurs permet de jouer avec l espace physique et en même temps, avec la spatialisation du son. Mais, on se demande toujours comment utiliser l espace, quelle est la situation que l espace occupe dans la composition et comment nous pouvons composer l espace lui-même etc. Vaggione nous parle de ces aspects dans son étude sur la question de l espace et fait référence à la raison d être des musiques mixtes : «faire coexister des sources aux échelles diverses, relier les mouvements dans l espace des sons instrumentaux aux morphologies électroacoustiques déployées simultanément, et ceci de façon assez 22

23 rapprochée, afin de constituer un ensemble dont les interactions puissent se présenter à la perception comme découlant d un réseau morphologique commun».(vaggione, 1997 : 166). Voilà sa conception à propos de la composition de musiques mixtes et à propos de l espace. Bien que nous étudierons la musique mixte dans un contexte différent, le temps réel, il n a pas de différences entre ses théories et la manière dont on compose avec le temps réel. Les objectifs doivent être les mêmes et les paroles de Vaggione nous invitent à une réflexion sur la manière de composer l espace dans la musique mixte : chercher la coexistence, constituer un ensemble d interactions et avoir un réseau morphologique commun. Cette théorie nous conduit à penser que les principes poïétiques de Vaggione à propos de la composition de l espace répondent à une cohérence compositionnelle générale. La seule nouveauté dans la musique mixte en temps réel est le traitement du son. Nous avons une nouvelle source, mais les propositions et les principes doivent être les mêmes. Après la naissance des systèmes numériques, nous avons deux manières d aborder la composition de l espace dans les dispositifs électroacoustiques. D une part, le son peut sortir par les haut-parleurs d une façon statique, c est-à-dire, que le son présente un comportement immobile avec plus ou moins d énergie. D'autre part, on peut composer l espace avec des trajectoires. Dans un contexte stéréophonique, nous pouvons parler de trajectoire linéaire. Dans un contexte multiphonique, nous avons beaucoup plus de flexibilité que le linéaire parce que «nous pouvons positionner virtuellement une source sonore dans l espace» 12. Le fondement de composition d une trajectoire linéaire est très simple. Il y a toujours un principe d équilibre entre deux sources. Quand une de ces sources a toute 12 Définition des possibilités qu il y a avec les outils de spatialisation du son du CICM : 23

24 l énergie d un son, l autre est en silence. L exemple montre le principe dans un simple patch pour Max SMP : Exemple nº8: trajectoire linéaire Le son sort par le haut-parleur de la droite (sortie 2) avec une amplitude de 0.9 / 1. C est-à-dire, le 90% du son sort par le droit et le 10% du son sort par la gauche. Définir des trajectoires plus sophistiquées et élaborées est quelque chose de plus complexe. Nous pouvons définir des trajectoires du son sur un contexte multiphonique en utilisant des outils numériques très puissants. Dans ce mémoire, nous parlerons des outils de spatialisation développés par le Centre de Recherche Informatique et Création Musicale de Paris 13. D abord, nous propos l utilisation de l objet ambipan. Il permet «un changement dynamique du nombre de haut-parleurs ainsi que de leur position. Il est également possible d'utiliser des coordonnées cartésiennes ou polaires et de contrôler la position de la source à l'aide de données de contrôle ou de signal» CICM, MSH Paris Nord 14 Documentation de l objet ambipan. L objet a été développé par Benoit Courribet et par Rémi Mignot 24

25 Exemple nº9: l objet ambipan Ensuite, on utilise l objet trajectory 15. «L objet est une interface permettant d éditer graphiquement des trajectoires. Elle comprend 8 outils de dessin et une surface carrée blanche dans laquelle se déroulent l édition et les déplacements. L édition d une trajectoire se déroule en deux temps: d une part la définition du parcours et de la vitesse de la trajectoire, et d autre part la lecture du trajet et l interaction en temps réel avec les paramètres du mouvement» 16. L exemple montre l interface de l objet trajectory, avec lequel nous pouvons dessiner graphiquement des trajectoires selon différents modèles proposés tels que rectangles, ellipses, triangles etc. Exemple nº10: l objet trajectory Objet conçu par Jean-Baptiste Thiebaut. Documentation de l objet trajectory. 25

26 L image montre l utilisation de l outil triangle, avec une vitesse de mouvement de 0.15 et un angle de 57. Nous écouterons le signal dans le dispositif multiphonique avec la trajectoire d un triangle. La versatilité des outils comme trajectory font la composition de l espace plus versatile et agréable. De simple mode de représentation, l espace a fini par absorber la musique, à tel point qu on peut se demander si, contrairement à sa définition traditionnelle, la musique ne serait pas, de nos jours, plutôt que l art du temps, un nouvel art de l espace. (Makis, 1997 : 213) 1.2 L interaction et la mixité Nous abordons ce sujet en réponse à l énorme utilisation de cette terminologie et en fonction d une pratique très usuelle dans la création de musique mixte en temps réel : la création d un style mixte à partir de la composition des interactions. D'ailleurs, l utilisation du terme interaction nous conduit à nous poser la question sur le propre concept. Edgar Morin dit à propos de l interaction : «est une action réciproque entre différentes sources autour d un système qui modifie le comportement ou la nature des éléments, des corps, objets et phénomènes en présence ou en influence». (Edgar Morin, 1977, 51). Qu est-ce que l interactivité? «L'interactivité est une activité nécessitant la coopération de plusieurs êtres ou systèmes, naturels ou artificiels qui agissent en ajustant leur comportement. Pour établir une interactivité, nous précisons d un processus de communication entre les sources qui permettaient de modifier ou adapter leur comportement. L interactivité distingue une communication interactive qui s'opposerait à une communication à sens unique, sans réaction du destinataire, sans feedback»

27 Pourtant, interaction et interactivité sont des termes similaires qui se complètent autour de la communication, de la réciprocité et de l influence entre différentes sources. Est-ce que la musique mixte en temps réel peut être interactive? Alors, pouvons nous parler d interaction? Comme compositeur, je peux imaginer un système musical interactive, une pièce mixte en temps réel où la communication entre l instrumentiste et l ordinateur se déroule à partir de la composition d interactions, ou la réciprocité est constante et les sources sont communicatives, c est-à-dire, la où il y a toujours une réponse. Par contre, il y a nombreuses pièces de musique mixte en temps réel où l interactivité n existe pas. Une des sources provoque une réaction dans l autre, mais pas le contraire. On est au milieu entre la communication interactive et la communication à sens unique. Le feedback existe, mais toujours dans un côté. Par exemple, le dispositif électroacoustique peut répondre aux fréquences plus aigus que 440Hz avec un déclenchement du son stocké. Si ce son n a pas d importance pour l instrumentiste et il continue à jouer, le feedback ne porte pas de sens dans le message. On est dans un état intermédiaire. Dans un autre exemple, le dispositif électroacoustique répond de la même façon, mais l instrumentiste doit jouer en fonction du son écouté : si le son est fort, il ne jouera pas. Si le son est ppp, il jouera aussi ppp. Nous trouvons un feedback par la part de l instrumentiste. Dans ce cas, la communication est interactive. 27

28 Exemple nº11: types de communication Si la communication existe, pouvons nous parler de dialogue? Le terme dialogue a été très utilisé dans le domaine de la musique mixte. Pierre Boulez appelle à une de ses œuvres Dialogue de l'ombre double 18. La pièce consiste en «une alternance de strophes et de transitions interprétées par le même instrumentiste. Les strophes sont jouées sur scène «en direct» ; les transitions ont été préalablement enregistrées et sont diffusées par haut-parleurs. À la présence réelle et localisée des uns, s'oppose la présence imaginaire et diffuse des autres. Les strophes sont chacune centrées sur une idée unique ; les transitions nous font passer insensiblement d'un motif à l'autre» 19. Il faut rappeler que l œuvre est une pièce mixte où la bande a été composée en temps différé. Même si les instruments se fondent, s ils divergent ou s ils arrivent finalement à un compromis, le «dialogue» a été écrit hors du temps réel. Les messages Pour clarinette et bande Fiche de l œuvre dans la base de documentation sur la musique contemporaine à l Ircam. 28

29 ont été composés avant le concert et la performance est une mise en scène d un «dialogue» pre conçu. Le dispositif électroacoustique qui déclenche la bande ne s adapte pas au contexte, ne modifie pas son comportement et sa réponse est toujours fixe, sans dynamisme. Mais nous sommes dans le temps réel et les instruments et les ordinateurs interagissent entre eux d une manière dynamique, docile et élastique, en s adaptant à leur contexte. La richesse dans la communication nous donne un processus flexible et actif ou l interactivité est le moteur de la composition. Le niveau de la mixité sera plus grand en fonction de la richesse de la communication établie. Pour une performance interactive, le compositeur doit créer un système «qui prendra en charge en direct certains aspects prédéterminés de la performance. Le logiciel interviendra aussi sur d autres aspects musicaux comme sur la synthèse du son ou la modification d une partie ou de tous les sons produit en direct. Le comportement de l ordinateur peut être fortement déterminé ou indéterminé selon les besoins des musiciens et peut être modifié d une performance à l autre. Son rôle musical peut même être modifié durant la performance 20». La manière de construire un système musical interactif, d'établir les processus de contrôle et de composer les interactions ont été déjà étudiées dans les chapitres précédents. Mais il faut caractériser les différents styles de mixité que le compositeur peut créer en fonction du comportement du dispositif électroacoustique et selon la capacité du système de s'adapter au contexte. Nous pouvons parler des styles de mixité différents, qui vont donner à la musique mixte d'un tell ou une autre beauté sonore. Qu est ce qu on entend par mixité? La notion de mixité a été beaucoup développée dans les études musicologues. Disons qu une musique mixte est mixte parce qu elle accueille deux types de 20 Définition d interactivité dans le site Web 29

30 comportements différents. D une part, les sons d origine acoustique et d une autre part les sons du dispositif électroacoustique. D abord, le processus de composition de la musique mixte présente deux chemins diverses mais, pas nécessairement opposés. Quand nous parlons de sons du dispositif électroacoustique, nous ne faisons pas la différence entre les sons enregistrés et manipules en temps différé ou les sons qui procèdent du traitement en temps réel. «Les évolutions récentes des capacités exponentielles de calcul des machines et l émergence des logiciels «boîtes à outils» du type Max MSP permettent aujourd hui de jouer en temps réel des œuvres mixtes dont la partie électronique avait été conçue en temps différé». (Risset, 2002 : 83-88). La mixité conduit à une alliance entre les sources mécaniques jouées par l instrumentiste et les sons électroniques. «La mixité nous pose la question de l identité des acteurs sur scène en associant un instrument et son double invisible» (Tiffon, 2008 : 12). Cette association a été toujours reliée au synchronisme. L idée du synchronisme a été depuis toujours un vrai problème pour l interprétation après la naissance de la musique mixte. La synchronisation avec la bande a été une des questions le plus importantes de la musique mixte et parfois a posé des problèmes de composition et d interprétation. Dans le processus de composition de musique mixte, «l association du visible et de l invisible s entend, toujours à l écoute, par le biais de la fusion ou de l opposition. Les effets scéniques sont le plus souvent conjugués dans un spectacle qui associe intimement éléments visuels et auditifs» (Tiffon, 2008 : 17-19). L apparition des systèmes musicales informatiques pour le réglage et contrôle du dispositif électroacoustique favorisent l adaptation de la musique mixte aux contextes plus dynamiques et flexibles. Le synchronisme n est plus un problème capital et les avances dans la technologie permettent un mixage tout à fait différent. 30

31 L ordinateur et l instrumentiste peuvent se communiquer sans les problèmes de synchronisme du passé. La fusion ou l opposition passent à être une ressource pour la composition mais n impliquent pas de problèmes d interprétation. Que cherche le compositeur avec la mixité? La mixité dans la composition de la musique mixte en temps réel cherche à avoir un état de communication plutôt qu un état de synchronicité. La recherche des événements simultanés et localisés dans le temps se perd en favorisant l interactivité entre le musicien et la machine. Les objectifs du compositeur se basent sur la recherche d un système de communication interactif. La communication entre le dispositif électroacoustique et le musicien peut favoriser l émergence 21 d un système musical où le discours sonore est le résultat final du tout le processus. La composition d interactions cherche à construire en direct un discours sonore pre-conçu par le compositeur. La communication essaie de transmettre une idée, d établir une relation entre l instrumentiste et la machine pour la création de ce discours sonore. Dans ce contexte-là, nous ne trouvons pas une grande différence avec la musique mixte des années précédentes. Le compositeur de musique mixte pour instrument et bande pouvait penser à ce discours sonore en cherchant l homogénéité, l équilibre, la cohérence, la cohésion, la fusion etc. entre les deux éléments, mais tout le processus est fait hors du temps réel et le concert n est plus qu une mise en scène des interactions composées en temps différé. La synchronicité était un élément à exploiter dans la scène et pourtant jouait un rôle très important. La mixité dans la musique d aujourd hui favorise aussi cette interaction, mais en direct. L objectif final peut être le même, mais les chemins pour l avoir sont tout à fait 21 Nous parlerons d émergence et de composition d interactions dans la pièce de Agostino Di Scipio, dans le deuxième chapitre de la mémoire. 31

32 différents. Le compositeur, à partir de ces interactions en direct, cherche un comportement favorable à l équilibre par rapport au discours sonore pre- conçu. Nous ne pouvons pas classifier les formes de mixité dans la musique mixte en temps réel parce que la diversité échappe à notre connaissance et elles sont toujours en fonction de l imagination du compositeur. Mais nous pouvons faire une approche pour différencier les catégories de mixité existantes et les principes pour arriver à ce discours sonore. En premier lieu, nous parlerons des tendances générales dans la mixité du discours sonore et ensuite, nous aborderons les fonctions qui peuvent réguler ces tendances. Normalement, nous avons deux états de mixité : un état où le compositeur cherche la cohérence, la conservation de l identité entre les deux sources et un autre état où le compositeur cherche l opposition. Par exemple, la mixité dans un passage peut être cohérente par rapport à la morphologie du son. Chacune des deux sources sonores, l instrumentiste et le dispositif électroacoustique, va respecter la morphologie d origine. Dans un autre cas, nous pouvons trouver une mixité équilibrée par rapport à la spatialisation du son. Le son instrumental va être spatialisé avec une trajectoire et une vitesse de mouvement déterminées. Le son électronique gardera les valeurs de la trajectoire. C est-à-dire, que les formes de comportement les un par rapport aux autres sont équilibrées en gardant un style de mixité déterminée. Agostino Di Scipio a utilisé le terme morphostase 22 pour définir le comportement du système dans le temps d une manière stable, cohérente. Nous pouvons utiliser aussi ce terme, même si nous parlons maintenant de la mixité, de la relation entre le comportement du système par rapport au comportement de l instrumentiste. Le terme définit la conservation de la cohérence, la conservation de l identité commune dans les deux sources. 22 «Morphostasis, conservation of coherence, identity». (Di Scipio, 1994 : 206). 32

33 D autre part, la relation entre les sources peut changer et nous pouvons trouver un comportement différent où elles présentent des caractéristiques totalement opposées. Si nous utilisons la terminologie utilisée par Di Scipio, nous pouvons dire que ce comportement répond au phénomène de morphogenèse 23. Par exemple, le dispositif électroacoustique peut faire une granulation du son d entrée très intense et en même temps avec un changement de fréquence des grains très dynamique ; le son instrumental restera immobile, avec une fréquence constante et sans aucun mouvement. Le contraste et l opposition nous donne une mixité avec un comportement que nous pouvons cataloguer comme morphogénétique. Cette mixité peut être obtenue de deux façons : le style de mixité en temps réel peut être composé en avance, c est-à-dire que le compositeur décide du comportement cohérent ou opposé des sources et la structure de la programmation est réglée pour obtenir tel ou tel style. L écriture est dite fixée ou non- dynamique. Cependant, on peut donner au dispositif électroacoustique ou à l instrument des instructions pour avoir un comportement dynamique en fonction du comportement de l autre. L écriture présente une structure ouverte. Le compositeur décide du style de la mixité dans un passage déterminé, mais le comportement varie toujours selon les messages reçus par les sources. Le comportement des sources est variable. Le choix d une mixité avec un comportement fixé ne présente pas de difficultés. Le compositeur doit décider d un passage déterminé, la relation entre la source (homogène ou divergente) et le style d écriture pour les sources : une écriture instrumentale fixe pour l instrument et des valeurs fixes pour le dispositif électroacoustique. Par exemple, le compositeur écrit un passage avec une ligne de retard de 1000 millisecondes. Le style de mixité est cohérent par rapport au temps délayé et les valeurs ne changeront pas pendant ce passage. 23 «Morphogenesis, dynamical behavior, change». 33

34 Le choix d une mixité avec un comportement variable est un processus beaucoup plus complexe. La mixité dépend de la composition d interactions. Le compositeur doit écrire des fonctions logarithmiques que permettent une variabilité dans le processus et une adaptation des sources selon le style de mixité choisie. Par exemple, le compositeur écrira le même passage, mais la ligne de retard sera plus grande ou plus petite en fonction d un paramètre du trombone. Le style choisi garde la cohérence, mais avec un comportement dynamique des sources. La variabilité et le dynamisme du système peuvent servir comme principes généraux qui régulent la qualité de la mixité. Nous ne pouvons dire que la mixité a une qualité majeure en fonction de l élection d un système ou un autre (homogène ou divergente), sinon que la qualité dépend directement de l adaptation du même à différents principes ou idées poïétiques du compositeur. Nous montrerons un exemple où le compositeur cherche un comportement du système variable et une mixité hétérogène entre les sources. Quand la source instrumentale présente une grande densité d événements, le dispositif électroacoustique équilibrera le son général avec une densité plus petite. Le système se comporte d une façon dynamique et variable en fonction de la densité générale d événements. Voyons un exemple graphique, où la densité d événements 24 est contrôlée par la séparation des grains dans l objet de granulation : 24 Nous verrons l objet de contrôle d activité d événements dans le troisième chapitre, dans l analyse de la pièce «Luz». 34

35 Exemple nº12: le niveau d activité contrôle la granulation Pour finir ce chapitre, nous pouvons dire que la qualité de la mixité dépend en grande partie du niveau d interactions et de la profondeur des communications entre les sources. 35

36 Deuxième Chapitre 2. Qualifier la musique mixte en temps réel 2. 1 «Tentatives de Réalité» : étude de l analyse gestuelle et sonologique Introduction Le compositeur espagnol Hèctor Parra i Esteve est un des créateurs jeunes les plus demandés dans la composition contemporaine. Sa formation a eu lieu à Barcelone et Paris, entre autres. Actuellement, Parra prepare une Thèse Doctorale sur les interrelations entre geste musical et rythme visuel à l Université de Paris VIII, sous la direction d Horacio Vaggione. Nous tenterons d expliquer l esthétique de Parra à partir d une étude de l analyse gestuelle et sonologique dans sa pièce «Tentatives de Réalité». Il s agit d une pièce pour violoncelle et dispositif électroacoustique piloté par captation de geste. La réalisation informatique musicale a été faite par Thomas Goepfer, ingénier stagiaire de l Ircam à Paris. Comme nous avons dit dans le titre de ce chapitre, nous voudrons étudier la pièce à partir de l analyse gestuelle et sonologique faite pour le dispositif électroacoustique. Pour aboutir à ce travail, nous avons à notre disposition différents matériels comme la partition, l enregistrement de la pièce 25, les documents utilisés pour le compositeur dans un exposé de la pièce et une version du patch Max SMP pour le traitement sonore, l analyse et le déclenchement des sons en temps réel. 25 L enregistrement de la première, faite à Paris le 14 juin de 2007, dans le Festival Agora, IRCAM. 36

37 Ma démarche analytique commencera avec une approche des idées du compositeur à l heure de aborder le mécanisme poïétique de la pièce. Nous verrons comment la nature et l analyse des autres manifestations artistiques l inspireront pour construire «Tentatives de Réalité». Ensuite, nous ferons une étude de la structure, de la façon dont Parra se sert des différents états dans la mixité d une pièce pour argumenter les sections. Cela nous permettra ensuite d analyser la partie instrumentale et de caractériser certaines sections pour accéder à la question de l interaction du geste avec la programmation. Pour finaliser, nous aborderons l étude de l écriture de la programmation, un des états les plus importants et le plus riches de ce chapitre Cadre conceptuel La création artistique d Hèctor Parra se déroule entre la musique et la peinture. Sa réflexion poïétique englobe des aspects relatifs aux deux manifestations artistiques. La perception qu il a dans le domaine de la peinture, à propos de la ligne, de la perspective, de la forme, du mouvement, du volume, etc. donne toujours des idées et des représentations pour la composition musicale. Dans la pièce «Tentatives de Réalité», Parra fait une étude de la dimension sonore à partir des recherches basées sur la dimension dans d autres manifestations artistiques. Il a comme objectif d obtenir des différentes formes de volumes et de dimensions dans le son. La photo suivante nous montre un détail de l œuvre «Temple de Pergamon 26». Selon Parra, «le «tout fini» originel nous est donné sous une forme fragmentaire. Il nous force à recréer dans notre imagination les frises originelles, au moyen de notre sensibilité plastique et esthétique. Les multiples vecteurs de force fusionnent le drame (histoires mythologiques) avec la plasticité visuelle de sa représentation. Les fragments 26 Des images données pour le compositeur. 37

38 qui nous sont arrivés sont si forts et énergétiques qu ils se projettent dans l espace et le temps, bien au-delà de ses limites physiques» 27. Exemple nº13: détail du Temple de Pergamon Un autre exemple nous est donné par Parra dans lequel l humain recrée une forme à partir de l idéalisation dans notre imagination d un modèle pre - conçu. La structure des macles nous fait penser à la dimension de la nature et sa complexité. Tout ce jeu de dimension et de perception est le moteur pour Parra pour aborder sa composition. Il veut «reconduire toute l énergie musicale et sonore qui a été dissipée vers sa source d origine (le violoncelle). Ainsi, les éléments sonores et visuels se voient unis en se renforçant mutuellement et déformant plus fortement le temps perçu par l auditeur» 28. Exemple nº14: macles 27 Parra, dans la conférence réalisée à l IRCAM à propos de cette pièce. 28 Parra, dans les notes au programme de la pièce. 38

39 Cependant, vouloir transmettre ce type de perspective dans la musique et récréer un monde de dimensions auditives, se trouve être un labour complexe. Comment mettrail en correspondance cette idée de dimension de la forme avec la composition du son? Trois dimensions nous sont présentées par Parra. La première dimension est la plus élémentaire est constituée par le son du «violoncelle solo». Une deuxième dimension est obtenue en additionnant le son du violoncelle avec le geste instrumental. C est-à-dire, que le geste apporte un nouveau phénomène sonore au discours qui va impliquer une nouvelle situation dans la perception du son et dans la visualisation du concert 29. Apparaît un nouvel état dans la conception de sa musique : la visualisation du geste instrumental comme élément important pour la composition. La poïésis a une relation notable avec le grade de perception sonore et aussi visuelle du public, c est-à-dire, avec l esthésis. Une troisième dimension englobe le son du violoncelle, le geste instrumental et l électronique en direct. Exemple nº15: graphique représentatif de les trois dimensions Parra se sert de ces postulats pour entreprendre la composition de «Tentatives de Réalité». La différentiation dans «ses dimensions», dans ses trois «étapes de représentation sonore» est utilisée pour articuler le discours, la structure de la pièce et les divers états énergétiques tout au long de l œuvre. 29 On verra plus tard comme l analyse du geste pourra affecter au traitement du son. 39

40 2.1.3 La structure et la mixité L élaboration de la structure a été l une des premières étapes dans la composition de la pièce. L oeuvre présente une forme très claire et est divisée en sept sections. À chaque section, Parra montre un aspect différent en relation avec la mixité, qui donne à la musique une nature concertante. L utilisation de l électronique et de la captation du geste sont variables en fonction des objectifs. Nous pouvons dire que la mixité a conditionné la forme de la pièce. Les différentes parties se déroulent en fonction de la relation du son original d entrée et sa répercussion avec le traitement et la captation du geste. Comment Parra organise-il les étapes de la pièce? 1. Introduction : quelques «accidents» interrompent un flux complexe et fuyant 2. Le geste met en vibration l espace acoustique 3. Le violoncelle sculpte le flux électronique 4. Purs vecteurs «d énergie sans son» 5. Plus expressif moins sculpté par le traitement électronique 6. Énergie débordée 7. Un nouvel espace sonore est ouvert Comment organise t il chaque section? Le schéma suivant nous présente les différentes étapes de la pièce qu il met en place, la relation du violoncelle avec l électronique et la sous-structure dans chaque section 30 : 30 L image a été utilisée par Parra dans l exposition de son œuvre à l IRCAM 40

41 Exemple nº16: structure de la pièce et comportement des sources Comme nous avons vu dans le schéma, Parra présente dans la pièce des climax différents selon la relation du violoncelle et de l électronique. L exemple suivant représente un sonagramme 31 de l ensemble de la pièce, ce qui nous donne une idée des champs énergétiques tout au long de l œuvre. Exemple nº17: sonograma de la pièce Tentatives de Réalité 31 Le sonagrama a été fait avec le logicielle Audacity. 41

42 Cet exemple n est pas qu une représentation graphique de la pièce mais nous donne une idée des différentes sections, de la délimitation de ceux-elles et de la consécution de l objectif : créer une grande arche d énergie sonore presque continue L écriture instrumentale L écriture du compositeur Hèctor Parra se situe dans la tradition artisanale et laborieuse de la composition du détail sonore, dans un niveau temporel très réduit. Parra cherche l écriture de la «minimal expression sonore». Tout est précisé et rien n échappe à l intentionnalité du compositeur. La composition «du son» et non avec le son ; à la manière «antique» des années soixante, Parra élabore une écriture diverse et très variée. L image suivante nous montre un détail de l écriture du compositeur. Dans une très courte période (une mesure de quatre temps), le violoncelliste doit jouer avec des différentes dynamiques, modes de jeu, différentes attaques, etc. Exemple nº18: dètail de la partition Il a besoin de modes de jeux très différents pour avoir une interaction flexible dans la programmation informatique. «Tentatives de Réalité» est donc une étude très exhaustive de tout ce que peut être fait avec un violoncelle, en jouant d une façon «traditionnelle» Nous avons dit traditionnelle parce que évidemment, il y a d autres manières de jouer un instrument comme par exemple, à l intérieur du mouvement artistique «fluxus». 42

43 Avant la composition, Parra fait une classification de toutes les différentes manières d aborder l écriture selon un paramètre déterminé. Par exemple, si la programmation analyse la variabilité de la pression des doigts sur la corde dans un passage, Parra se pose la question lui-même sur tous les états possibles de pression, les transitions linèaires d un état de pression à un autre et les états périodiques de variation de pression (vitesse de variation de pression). Pour le contrôle maximal de tous les variables possibles, Parra fait une distinction entre les paramètres dépendants de l archet (main droite), et les paramètres dépendants de la main gauche. Pour la main droite, différents paramètres peuvent être pris en compte : on obtient le contrôle du registre et de l enveloppe dynamiques, le contrôle des pressions spéciales de l archet (l écrasé, le stridente et le flautati), le contrôle des vitesses spéciales de l archet (l ecrasé lente, le stridente rapide et le flautati très rapide), le contrôle de la position de l archet tout au long du tasto et de la transition entre les différents positions, le contrôle sur l inclination de l archet etc. On obtient également des données à partir d une étude de mouvements de la main gauche. Parra fait une étude des intervalles, du profil mélodique, de la pression des doigts sur la corde, de la variabilité de la pression des doigts sur la corde (axe perpendiculaire à la touche) et de la position des doigts sur la corde et de la variabilité de la position des doigts sur la corde (absence ou présence de variabilité : portamenti, glissandi, vibrato etc). Toutes ces classifications fonctionnent aussi comme recours pour la composition de ses deux passages avec la forme de «variation». Le détail suivant montre un exemple du processus d élaboration adopté par Parra pour l écriture d une de ses variations: 43

44 Exemple nº19: processus d élaboration adopté par Parra Nous pouvons donc observer comment avec un même profil mélodique, avec les mêmes intervalles etc., et en changent seulement le contrôle sur la main droite, nous obtenons une énergie sonore très différente. Le premier passage présente des changements du registre dynamique et de l enveloppe dynamique. Il n y a pas de transition entre les différents états dans la position de l archet tout au long du tasto. Le deuxième passage ne présente pas des changements dynamiques, mais la pression de l archet est forte et parfois extrême (écrasée). La sonorité est tout à fait différente. Par exemple, si la programmation répondait à l analyse du niveau de bruit du son d entrée pour faire des filtrages passe-bande dynamiques, nous obtiendrions un changement global du son beaucoup plus divergent. L exemple montre un sonagramme qui représente graphiquement les champs énergétiques de trois passages musicaux interprétés avec des différents modes de jeu (ordinario, staccatto, flautato et col legno jeté). Exemple nº20: sonograma. Champs énergétiques 44

45 L écriture instrumentale de Parra dans la pièce «Tentatives de Réalité» est le résultat d une profonde étude sur toutes les possibilités que le violoncelle offre. Une écriture très diverse et l analyse des paramètres du son donneront au compositeur tout un spectre des valeurs qui serviront comme outils pour procéder au traitement du son dans la programmation L écriture électronique. Le système DSP 33 et la construction du patch La réalisation informatique musicale de ««Tentatives de Réalité»» a été faite à l IRCAM et la programmation a été élaborée par le technicien Thomas Goepfer. Nous trouvons un énorme travail d ingénierie informatique et de programmation. Ce projet est très ambitieux parce qu il prétend analyser les multiples paramètres du son, la captation du geste et faire une mise en correspondance de toutes les valeurs reçues avec des différents traitements du son et déclenchement des sons traités en temps différé. Une programmation informatique a été faite avec le logiciel MAX SMP 34. Nous avons malheureusement rencontré des différents problèmes dans la construction du patch. L organisation n est pas claire et sa compréhension devient très difficile. De plus, nous aimerons avoir accès aux multiples objets personnels crées par le technicien 35, des bibliothèques personnelles, des bibliothèques «IRCAM»..etc. L interprétation de la pièce aura donc toujours besoin de la présence de Thomas Goepfer ou bien de la présence d un technicien de l IRCAM pour faire démarrer le système. Le travail de traitement et d analyse du son est très complexe et pour comprendre sa progression nous devons nous familiariser avec les multiples objets de programmation 33 «Digital signal processor» 34 Le patch m a été envoyé par le compositeur. 35 On ne dit pas des objets autonomes, qu on peut trouver facilement sur Internet. 45

46 qui ne se localisent pas dans la bibliothèque de Max SMP. Donc, nous tacherons de présenter très clairement l organisation du patch 36. Le patch peut être divisée en six différents niveaux: 1. L entrée du son 2. Banque de sons 3. Spatialisation 4. Captation du geste 5. Relation avec la partition 6. Typologie de traitement du son 1. L entrée du son L objet adc est présent dans différentes fenêtres de la programmation. Le son d entrée fonctionne comme source principale de la sonorité globale de la pièce. Le son est analysé dans différents sous-patches pour avoir un contrôle des traitements. Nous trouvons un contrôle manuel de l amplification du son direct (sans traitement) qui va être envoyé par les sorties 7 et 8 de la liste de haut-parleurs, selon les besoins et les nécessités de la salle. 36 Les exemples ont été transformés pour faire plus compréhensifs les images. 46

47 Exemple nº21: présentation du patch 2. Banques de sons Parra fait un travail minutieux et profond avec le traitement du son en temps différé. Il y a des sons de glotte, des sons vocaux, des sons de violoncelle et des sons de piano entre autres. Parra a travaillé ces sons en temps différé avec des processus de granulation, de changements de fréquence et de durée. Tous les sons ont été classifiés selon leur durée et leur fréquence et ils sont en attente d être déclanchés. La dualité temps réel - temps différé prend forme dans la pièce. Nous pouvons dire que Parra construit une ambiance très cohérente en utilisant le son du violoncelle et les sons déclenchés. La sonorité du violoncelle est très diverse et parfois ressemble aux sons de la banque des sons. Le traitement du son direct aide à former une cohérence des sons similaires. 47

48 Comment la programmation fait-elle le choix entre un son ou un autre? À partir de l'analyse du son et l étude de la captation du geste, le patch déclenche les sons en fonction de son enveloppe, de sa hauteur et de sa nature 37. L utilisation de l objet poly, et l addition du lecteur du son sfplay, permettent dans ce cas de faire sonner en même temps six sons différents. L analyse du son est très précise et beaucoup de paramètres sont analysés dans un court espace du temps. Nous aurons donc besoin de cet objet pour le déclenchement des différents sons en même temps qui répondent à l analyse faite. Les images suivantes montrent l utilisation de l objet poly et l objet sfplay comme déclencheurs de sons principaux et les différentes sorties de haut-parleurs que le compositeur a choisie pour le temps différé. Exemple nº22: utilisation de l objet poly et l objet sfplay 37 On verra les différents types de son que nous pouvons analyser à partir du mouvement de l'accéléromètre. 48

49 3. Spatialisation Dans la pièce, il y a deux manières d aborder l aspect de l espace. La première, c est en envoyant le son de manière linéaire aux sorties de haut-parleurs. Chaque son dans le patch, ou bien en temps différé ou bien en temps réel, a comme destination une sortie spécifique. Le son direct du violoncelle va toujours sortir par les haut-parleurs 7 et 8. C est-à-dire, que l on écoutera le son du violoncelle sur la scène et à l arrière de la salle. Le reste du son sortira par les haut-parleurs 1 6, avec une distribution pre fixé par le compositeur. La deuxième manière, c est avec la configuration des trajectoires. Pour aboutir à ce-là, le technicien a utilisé les objets de spatialisation de l IRCAM ainsi que les objets de spatialisation de la bibliothèque de CICM, l objet trajectory 38 entre autres. Parra dispose de toutes les sorties de haut-parleurs de la salle pour faire ses trajectoires. Les sons destinés à êtres utilisés pour les trajectoires sont les sons qui proviennent du traitement fait en temps réel à partir du son d entrée. 4. La captation du geste avec l accéléromètre L accéléromètre est un capteur mécanique qui permet de piloter l électronique de la pièce. Situé dans la main droite et connecté au dispositif électronique, l accéléromètre envoie des données au patch avec le détail de la position et le mouvement de l archet. Il s agit de faire toute une description des modes de jeu faits par le violoncelliste. Après la réception de valeurs et la mise en correspondance des données, l appareil peut nous servir comme un élément de contrôle formidable. 38 Nous avons parlé de l objet dans la première partie de ce mémoire. 49

50 Exemple nº23: utilisation des valeurs de l accéléromètre Dans le cas de «Tentatives de Réalité», Parra utilise les valeurs de l accéléromètre qui arrivent de l axe X, c est-à-dire, les mouvements dans le plan horizontal de l archet. Avec les valeurs reçues, le patch reconnaît si le mode de jeu est stridente, flautato ou écrasé à partir de un classification des données. Une fois que nous connaissons le mode de jeu, le dispositif de déclanchement du son envoie des particules sonores relatives au mode de jeu pour conserver une cohérence avec le son originel. Le système fonctionne aussi comme élément du contrôle de différents traitements sonores. L accéléromètre contrôle la synthèse du son FFT 39 ainsi que les autres traitements du son dans la bibliothèque de l Ircam FTM 40. L image nous montre un passage de la partition où la sonorité est très diversifiée, où le compositeur cherche à avoir des modes de jeu très différents pour «faire travailler» l accéléromètre. 39 «Fast Fourier Transform» 40 FTM est une extension pour Max/MSP avec des traitements en temps réel et des autres applications. 50

51 Exemple nº24: détail de la partition avec de modes de jeu très différents Le détail du patch présente le système de fonctionnement et de gestion des données à l heure de recevoir les valeurs de l accéléromètre. Exemple nº25: synthèse FFT à partir du mode de jeu 51

52 5. Relation avec la partition Le violoncelliste appuie sur une pédale MIDI chaque fois qu il y a un changement dans la structure de la programmation. Chaque étape a comme noms le nombre de la mesure où le déclenchement est placé. Dans la pièce, il y a des parties avec des déclanchements très réguliers (changements de la programmation fixes) et d autres parties ou il n y a pas besoin de appuyer sur la pédale MIDI. Dans ce cas, la structure du patch reçoit des valeurs dynamiques, qui viennent de l analyse du son d entrée. L image suivante nous montre un exemple de ce processus. Dans la mesure 87, le violoncelliste s appuie sur la pédale midi. La programmation reçoit un signal pour indiquer que nous sommes à la mesure 87. Dans le sub-patch (mesure-87), la programmation déclanche des sons (iana-tremolo5 et partielli-low5) avec l objet megasfplay-4 (connecté à l objet poly ). Au même moment, le patch ouvre la porte qui laisse passer l information obtenue avec l accéléromètre (l objet r flaustriecrase). À ce moment-là, si les valeurs reçues sont entre 0.7 et 0.83 (ces valeurs nous indiquent que le mode de jeu est écrasé), le patch active le déclenchement d un autre son (stridente) qui va être diffusé par différents haut-parleurs. Exemple nº26: dètail du patch 52

53 Tout le processus va fonctionner pendant 24 mesures. Quand la pièce arrivera à la mesure 111, tout le traitement et déclenchements de sons s arrêteront. Le violoncelliste appuiera sur la pédale MIDI. Le patch recevra l information qui permettra de nous situer dans la partition (mesure 111). Un bang est reçu par le -inlet2 de l objet p measure-87 et la porte qui laisse passer les valeurs de l accéléromètre se fermera. Alors, un autre processus commencera. 6. Typologie de traitement du son Le traitement du son est un des principaux outils pour la réalisation du live electronics. L'oeuvre de Parra a bénéficié des ressources que le dispositif électroacoustique offre parce qu'elle a été fait avec dans les meilleures conditions possibles, la technologie la plus avancée et les médius les plus sophistiquées 41. Les techniques de traitement du son sont parfois très complexes et inaccessibles à l étude. Nous trouvons de nombreux objets externes à la bibliothèque Max SMP et nous n avons pas pu les faire fonctionner. Même le nom de leurs objets ne correspond pas à leur fonction, donc ça serait un risque de suggérer leur fonctionnalité. Exemple nº27: dètail du patch avec les transformation du son Le principal type de traitement utilisé correspond à l objet munger. Il s agit d un objet pour la granulation très efficace. Nous avons le contrôle de plusieurs paramètres tels que le nombre de «voices», la séparation des grains, la taille des grains, le temps de retard dans la granulation, le changement de fréquence des grains, la diffusion des grains 41 Pour la création et la recherche. 53

54 (trajectoire du son linéaire), etc. Aucun de ces paramètres n est contrôlé de manière dynamique, c est-à-dire, en fonction du comportement du son ou auprès la captation de valeurs de la part de l accéléromètre. Il reçoit des valeurs statiques envoyées par la programmation selon le moment de la pièce. Un autre traitement très important est un résonateur avec des filtres passe-bande dynamiques, appelé par Parra «iana 42». D abord, on obtient «la fréquence centrale» du passage et avec les données, le patch contrôle les filtrages du son. Après la première écoute de la pièce, on peut observer que même dans les passages très secs, on trouve toujours une petite résonance. L effet résonateur est présent dans la plupart des sections. Parfois nous voyons une résonance très exagérée qui nous rappelle l écho des grandes salles. Un des filtres les plus caractéristiques du son c est le FFT. Parra fait une application spéciale en ajoutant des retards temporels et l implémentation de feedback qui vont directement au filtrage et qui donnent à la musique un aspect atemporel. Un autre type de filtrage est appelé comb~. L objet comb~ 43 est un objet qui ajoute au son d entrée un filtre délayé qui provoque des annulations de phase et un spectre avec la forme d un peigne. Le contrôle du temps de retard, du feedback et du niveau du son filtré est dynamique, c est-à-dire, qu il est réglé à partir de l analyse du son d entrée et en fonction de sa qualité. Parra utilise l implémentation du filtre passe-bande filtergraph~ avec l objet cascade~, qui permet une liste de multiples filtres biquad~ à la chaîne. La réception de données est en fonction des valeurs reçues par l analyse du son. 42 Ce module donne la possibilité d'analyser un son, d'en extraire toutes les composantes, de déterminer celles qui sont audibles, l'intensité avec laquelle elles sont perçues et comment elles interviennent dans la fréquence fondamentale. 43 En français peigne 54

55 Exemple nº28: éxemple de synthèse du son avec les objets biquad~ et cascade~ Pour finaliser le chapitre des traitements du son, il faut dire que l utilisation de nombreuses lignes de retard est peut-être la ressource la plus effective dans la pièce. Parra utilise un module appelé mdelay. C est un sub-patch qui présente des changements dynamiques dans la ligne de retard en fonction de la nature du son à ce moment-là dans l ambiance de la pièce (à partir d une analyse). Plus le son est sec, plus la ligne de retard et le feedback seront plus grands. Plus le son présente une grande densité d événements, plus la ligne de retard sera plus petite. Parra se sert du module quatre fois, en utilisant chacune des différentes valeurs Chaque module envoie aussi le son retardé à une application différente de l objet spat, c est-à-dire, que chaque son délayé aura une trajectoire déterminée. L objet send~ #1- out~ envoie le signal au module de spatialisation appelé du même nom que le module de la ligne de retard (#1). L image suivante est un exemple de contrôle de la ligne de retard avec des données variables en fonction du son d entrée. 55

56 Exemple nº29: contrôle de la ligne de retard Conclusion La pièce d Hèctor Parra montre un grand travail au niveau de l écriture instrumentale. Disons que l esthétique du compositeur est basée sur le principe de composition du son avec une technique purement artisanale et très personnelle. L auteur obtient de grands résultats avec une proposition originelle et très complexe. La qualité artistique est indubitable et la pièce bien pourrait fonctionner de manière autonome, sans l électronique. Par contre, le patch constitue un grand travail d élaboration mais sans les résultats attendus. La complexité est extrême et la liaison entre l écriture instrumentale et l écriture électronique n est pas toujours satisfaisante. Ce n est pas facile de transmettre mes sentiments après l écoute et l analyse de la pièce, mais nous pouvons dire que le compositeur et le technicien avaient deux conceptions différentes sur la pièce. Des choses échappent aux besoins du compositeur, et d autres éléments qui ne sont pas heureux dans la conception du patch. Trop de travail qu on peut qualifier parfois comme un imbroglio. 56

57 La programmation a atteint un haut niveau technique, mais le résultat sonore est anecdotique. Parfois c est difficile de comprendre la structure d un dispositif électroacoustique. Nous ne pouvons pas nous attacher à un modèle ou référent parce que la création d un patch est quelque chose de très ouvert et est toujours en relation avec la capacité créative du compositeur. Mais si le travail n est pas fait pour le compositeur de la pièce, c est-àdire, si la programmation du patch a été élaborée par un technicien, la compréhension du patch devient plus difficile. Même si le travail a été fait en équipe, l activité poïétique perdra en authenticité. Nous ne disons pas que le projet n arrive pas à avoir une qualité artistique suffisante parce qu il y a des projets très bien faits et ambitieux qui ont été faits en équipe. Mais dans la plupart des cas, le musicien n arrive pas à comprendre la marche du processus dans la totalité de la pièce ; et ça c est quelque chose que nous trouvons fondamental. Nous nous situons du côté de l artiste qui, avec ses outils ou avec l aide de quelqu un, a une compréhension et un contrôle total de ce qui a été fait. D un autre côté, nous devons dire que le travail du son en temps différé et sa mise en scène est quelque chose de formidable dans la pièce. Parra travaille avec la même exhaustivité dans l écriture instrumentale et dans l élaboration et traitement du son enregistré. Le processus de déclenchement des sons à partir de l analyse des différents paramètres me paraît très opportun. La banque des sons disponible a une diversité très riche, tout en gardant la cohérence avec le discours du violoncelle. Nous pensons que la pièce doit être écoutée en direct. L écoute de l enregistrement n est pas propice parce que la visualisation du geste instrumental fait partie des propos conceptuels du compositeur. Les éléments visuels sont aussi importants que les sonores. La reconduction de l énergie musicale et sonore ne peut être perçue sans la visualisation des gestes de l instrumentiste. Dans le même sens, il faut se questionner si Parra a eu succès à propos de ses intentions «d avoir une déconstruction temporelle et gestuelle du matériau instrumental à 57

58 partir de la synthèse granulaire et de l utilisation de réseaux de retards variables» 44. La déconstruction temporelle est satisfaite au niveau de l utilisation de la ligne de retard mais l utilisation de la synthèse granulaire n a pas été brillante. L objet munger offre beaucoup plus d alternatives et de possibilités, même si son contrôle doit être dynamique. Nous ne percevons pas la granulation avec la diversité et variabilité avec laquelle l objet est désigné. Cependant, cette approche de la pièce de Parra reste insuffisante. Des nombreux traitements et processus à l intérieur du patch n on pas été expliquées. Le manque des bibliothèques et la rareté des objets autonomes font que l analyse soit très difficile. Il faut peut-être reconstruire le patch avec des fonctions plus simples et avec des objets plus accessibles à la communauté pour que ça marche mieux. Ainsi, la pièce pourra être interprétée sans le besoin de la présence du technicien ou de l organisme qui commande les pièces. 44 Texte de la conférence de présentation de la pièce. Ressource très utilisé par Parra dans autres pièces comme Chamber Symphony Quasikristall (2005) 58

59 2.2 «Os Oris». Une approche de la composition d interactions Introduction Le musicien italien Agostino Di Scipio 45 est un des compositeurs de référence dans le répertoire des musiques mixtes pour instruments et électronique en direct. Sa musique offre toujours une réflexion esthétique sur la problématique de la création pour les nouvelles technologies, ainsi comme une des postures les plus originales et d avantgarde dans la création récente. Pour étudier sa musique en détail, il faut prendre en considération l esthétique de sa création et les principes de sa composition. Di Scipio a déjà montré ses postulats dans pas mal d écrits scientifiques et son approche a été également étudiée pour nombreuses musicologues et compositeurs. Nous n avons pas l intention de prendre forme toutes les idées de Di Scipio et de les répéter. J ai voulu analyser une de ses pièces mixtes à partir de ses postulats et d amorcer ses réflexions et idées et les contraster en fonction du résultat sonore. Pour faire l approche de sa création musicale j ai choisi la pièce Os Oris (2002), pour trombone et dispositif électroacoustique, écouté dans un cycle des concerts de musique italienne contemporaine à l Université de Birmingham 46. La majorité de mes questions et réflexions sur la pièce ont été présentées au compositeur à travers de différents courriers électroniques. Ce chapitre ne prétend pas être une analyse exhaustive de la pièce de Di Scipio, parce que cela demanderait un travail beaucoup plus approfondi. Mais nous cherchons à offrir des traces significatives et des exemples pour comprendre son esthétique et sa conception sur la musique contemporaine. Les étapes analytiques de mon approche sont 45 Compositeur et théoricien. 46 Le UCE Birmingham Conservatoire. Recital Hall. Michele Lomuto (trombone) et Francesco Scagliola (electronics). 59

60 les mêmes utilisées pour le compositeur italien dans l analyse de sa pièce Due di Uno (Di Scipio : 2007). D abord, il y a une étude du cadre conceptuel, comme point de partie de la création. Plus tard, j aborde l utilisation du trombone, l originalité dans l écriture et la conception de la forme; ensuite, il y a une étude de la transformation du son et les différents systèmes de contrôle du traitement. Enfin, la dernière partie étudie les principes poïétiques de Di Scipio autour de la question de processus et de la composition d interactions Cadre conceptuel Os, Oris, (schizzzi dell aria che manca) 47, «per trombone e sistema interattivo di elaborazione del suono» est la seule pièce que Di Scipio a écrit pour trombone et live electronic, dans une catalogue de plus de vingt pièces de musique mixte en temps réel. Dans les titres des pièces, Di Scipio apporte toujours une direction, un cadre conceptuel48 comme il l appelle. Le titre résume l idée esthétique et nous renvoie au sujet central qu occupe sa problématique. Dans ce cas, Os Oris reflet sa préoccupation pour le composant humain dans la performance, ce qui est sujet ou ce qui est objet, ses questions sur l individu et sa situation dans le monde. C est l intégration de l humain dans l ambiance technologique, dans les médias et dans l automatisation de l environnement qu il cherche. Une fois que le dispositif électroacoustique est disposé, c est l interprète et son geste les responsables de tout le résultat sonore. L objectif est de doter d un rôle protagoniste le musicien dans la scène et d établir une mise en correspondance entre le geste instrumental et tout le résultat sonore existant. À propos du titre, Di Scipio dit : «je peux donner quelques indications sur le titre, qui place le centre d'écoute des mouvements et la "physicalité" de la bouche, comme le sujet (OS) et objet (Oris) de la composition (qui est une musique qui ne peut être 47 Os, Oris, croquis de l aria disparue. 48 «Cadre conceptuel» est le titre du deuxième chapitre de l article Due di Uno (Di Scipio : 2007). 60

61 entièrement enregistrée sur papier, une musique de "tradition orale", en abrégé). Le soustitre ajoute seulement qu'il est sain que, au lieu d'ajouter d'autres airs, d'autres musiques, d'autres mots, l'écoute simplement à offrir un peu de "souffle", bouffées d'air, les mouvements des lèvres et la langue, etc. est strictement nécessaire pour essayer de continuer à respirer dans une situation (le présent) de manque d'air» 49. Di Scipio base la création dans la mise en scène d une petite infrastructure technologique dont le résultat audible est la musique (Di Scipio, 2007 : 289). En même temps, Di Scipio présente une tentative d implémentation d un réseau d interactions dynamiques entre un instrument (trombone) et l électronique en direct (ibid.). C est cette interaction qui occupe tout son processus créatif. C est la composition d interactions la base de l activité poïétique chez Di Scipio. Cette interaction provoque la manifestation émergente 50 d un réseau de composants sonores et technologiques interdépendants (Di Scipio, 2007 : 290). On verra plus tard ce qui concerne la composition d interactions et la question d émergence Le trombone : une ressource d événements émergents Pour Di Scipio, beaucoup de ses œuvres impliquent une sorte de dramatisation de la rencontre ou de l affrontement entre des technologies diverses, en direct sur scène (Di Scipio, 2007 : 291). La dramatisation, dans le cas d Os Oris, a lieu dans le stage grâce au trombone et au dispositif électroacoustique (ou unité de traitement audionumérique programmable, comme lui l appelle), la station de travail Kyma 51. Kyma est un système de traitement du son en direct implémenté pour SymbolicSound s dans les État Unis d Amerique. Pour faire fonctionner ce système, nous devons avoir la machine Capybara320 DSP. Ça, c est un des grands problèmes pour 49 Traduction de l Italienne. Dans le site Web du dédicataire, le tromboniste Michele Lomuto. 50 Ce terminus a été utilisé aussi par Makis Solomos. (Solomos, 2005)

62 l interprétation de cette pièce. Nous ne pouvons pas faire fonctionner le traitement DSP à partir d un simple patch dans un logiciel commun comme Max SMP ou Pure Data. De la même manière, c est très difficile de comprendre la composition algorithmique de la pièce sans avoir une référence visuelle des opérations faites. L étude des interactions doit être faite à partir de la visualisation dans la station de travail Kyma ou, comme nous avons fait, à partir des références directes de la part du compositeur. Di Scipio connaît très bien les possibilités du trombone. À chaque fois qu il compose, Di Scipio apprend à jouer un peu avec les instruments pendant deux ou trois mois avant de commencer. Donc, il y a une connaissance assez grande de l instrument et les modes de jeu dans une approche contemporaine. Nous pouvons remarquer tout ça dans les trois pages de la notice pour l instrumentiste où Di Scipio fait une explication minutieuse et détaillée de tous les modes de jeu qu il veut dans sa pièce. Di Scipio divise le jeu du trombone en trois aspects : l émission du son et l usage de la langue et des dents l usage de la coulisse et la percussion sur le tube etc. L ensemble de modes de jeu du trombone forme un collage des sons très bruiteuses qui transportent au spectateur vers un monde imaginaire et éloigné dans la réalité sonore, même sans aucun traitement sonore. Le trombone devient un instrument à vent et à percussion en même temps. Les modes de jeu sont très détaillés et Di Scipio est très précis et rigoureux dans sa notation. Il n y a rien à l improvisation. À continuation, nous montrons quelques exemples de la notation dans la partition d Os Oris : 62

63 Exemple nº30: l utilisation de la langue Tonguing ribattuto : Des coups répétés très rapidement. Tongue Ram : attaque et conclusion du son très accentué. Attaque très légère du son, comme dans la production de son «t» et conclusion repentie. Exemple nº31: l utilisation de la coulisse Exemple nº32: Percussion sur la campana (cloche) de l instrument Selon Di Scipio, «la partie instrumentale est écrite non seulement afin de fournir certains sons, mais pour contrôler les détails et les nuances dans la transformation de l'ordinateur en temps réel» 52. C est une proposition très intéressante. L écriture n est pas seulement un chemin pour l émission des sons, sinon aussi pour le contrôle des variables dans le dispositif électroacoustique. Le compositeur met le point sur l interprétation du trombone dans la notice : «Le processus d'élaboration constitue donc un système ouvert, 52 «The instrumental parts are written not just to provide some sounds, but to control details and nuances in the real time computer transformations». Di Scipio, dans une communication privée par courrier électronique auprès ma question sur l objectif de la notation 63

64 sensible aux différences de densité et d'intensité de l'interprète, qui à son tour à sa façon d'articuler, qui va être influencé par les réactions du mécanisme de développement» La partition L étude de la partition se trouve fondamentale pour comprendre la musique de Di Scipio. L auteur a très claires toutes les sonorités qu il cherche et cela implique une écriture différente, original et très peu commun. L originalité dans l écriture co-habite avec une clarté des dispositions tout au long de la partition. Di Scipio divise la partition dans cinq parties : L usage de la langue L usage de la coulisse Percussion sur l instrument Ligne du temps Indications pour le technicien Exemple nº33: détail de la partition 53 «L insieme dei processi di elaborazione constituiscono perciò un sistema aperto, sensibile alle minime differenze di intensità et densità da parte dell interprete, il quale a sua volta nel suo modo di articolare risulterà condizionato dalle reazioni del meccanismo di elaborazione» 64

65 Cette division facilite la compréhension de la notation. Par contre, l'extrême rigueur de Di Scipio dans les gestes, et motivé pas seulement pour l'émission des sons sinon pour le contrôle avec ces sons des différentes variables de la programmation, demande parfois une écriture très complexe et nouvelle. Le compositeur précise une quantité d'information inusuelle dans un court espace de temps. Exemple nº34: exemple d un mesure avec une écriture très complexe La forme La forme54 dans la musique de Di Scipio est un sujet très complexe et dense. Makis Solomos a suggéré la quasi-impossibilité de délimiter des morphologies sonores dans sa musique : «On ne sait jamais où commence et où finit une morphologie» (Makis Solomos : 2005). La nature granuleuse de sa musique ne permet pas de classifier ou cataloguer les sons plus loin que dans la classification du grain ou silence (Solomos in ibid.). Il y n a pas dans sa musique une conception «a priori» de la macro-forme. Il n a aucune pensée sur structures plus globales que le son lui-même. À partir de cette conception-là, il est née l idée de «la forme comme émergence». Pour lui, l importance réside dans le son, dans la composition de ce son. Pourtant, la création d un timbre déterminé est la base de sa 54 Nous parlons toujours du sujet forme - structure. 65

66 musique. Toute forme ou structure supérieure «peut être décrite comme un processus de formation du timbre» (Solomos in ibid.). Ainsi, l analyse formelle de la musique de Di Scipio sans s arrêter dans une étude de la morphologie ou de la composition du timbre, se tourne complexe. Mais, a priori, dans la pièce Os Oris, nous percevons très clairement une structure formelle délimitée pour différentes sections. Même si la pièce a un caractère homogène en sa totalité, ce n est pas très difficile de faire une distinction entre les sections qui pressentent sa propre identité. Pourtant, nous pouvons dire que la forme globale de la pièce, qui peut être née de la pensée individuelle du timbre et des morphologies élémentaires à partir d une écriture granuleuse, présente une structure claire et délimitée en différentes parties. Pourtant, le postulat défendu par Di Scipio se trouve difficile à assimiler dans sa pièce Os Oris. Nous pensons que Di Scipio a eu une conception «a priori» de la forme dans sa structure formelle. Pour appuyer cette idée, nous devons faire référence aux annotations du compositeur sur la partition. À chaque section perçue dans l écoute, nous voyons des petites différences dans l écriture et, en même temps, Di Scipio donne des instructions pour le technicien qui provoquent dans la musique un changement remarquable. Cet à dire, la programmation de la pièce et la pensée algorithmique changent et cela fait changer aussi le climax sonore de la pièce. Exemple nº35: exemple d une indication pour le technicien pour changer la programmation 66

67 Exemple nº36: exemple de délimitation d une section et début d un procesus de traitement granulaire Pourtant, nous allons faire une classification de la pièce en 4 parties, pas seulement en fonction des annotations pour le technicien, mais en fonction de l écriture, de la nature morphologique du son et des différentes sections perçues dans l écoute : Section Configuration DSP 0 :00 0 :25 Introduction Izinio 0 :25 3 :00 A Inizio fis 2 Inizio Loop 3 :00 8 :30 B Bi Bii Biii Biv 3 Inizio grain 8 :30 10 :00 Coda 4 fine 67

68 Intro Section A Section B a Cod Transformations du son La transformation du son en temps réel est déterminée pour les algorithmiques élaborées dans le logiciel Kyma. Comme nous avons dit au début de ce chapitre, la partie de l écriture informatique se déroule dans ce logiciel, propriété du SymbolicSound s. C est un logiciel qui permet de réaliser des transformations DSP du son à partir de patches numériques d une façon dynamique et avec des objets visuels. Les processus de transformations dans la pièce Os Oris ne sont pas indiqués dans la partition d une façon claire et comme nous avons dit avant, ne sont pas accessibles sans avoir le logiciel. Mais nous avons eu accès aux images des différents traitements faits avec «Kyma» dans autres pièces de Di Scipio grâce aux courriers envoyés pour le compositeur 55. Ils ne sont pas que des simples images que décrivent des processus individuels. Il faut avoir en compte que la structure du patch généré dans la station de traitement du signal en temps réel est beaucoup plus complexe et que les processus de traitement sont inter-connectés entre eux Processus de granulation La nature granuleuse de la musique de Di Scipio est en correspondance avec une écriture et un traitement sonore au niveau micro-temporel. Le compositeur utilise l objet 55 Nous avons eu l accès à l information de traitement du son à partir de la communication établie avec le compositeur. 68

69 «sound cloud generator» qui génère des nuages granuleux. Le nombre de grains et son intensité sont contrôlés pour l amplitude du signal d entrée. La mise en correspondance entre les paramètres de contrôle (amplitude) et la densité de grains générés est linéaire : (0,1) => (0, 20). Cet à dire, quand l amplitude du signal d entrée est 0, il n y a aucun traitement granulaire. Mais si le signal d entrée est maximal, le nombre de «juxtaposition des événements granuleux» 56 est 20. Exemple nº37: mise en correspondance entre l amplitude et la granulation Comme Di Scipio dit à propos de la granulation du son, «il s agit d étendre ou de compresser leur durée (pratiquement sans changement de hauteur) ou de segmenter davantage le son en de plus petites particules, dont les durées seront de l ordre de quelques millièmes de secondes jusqu à quelques centièmes de secondes» (Di Scipio, 2007 : 305). Dans Os Oris, la granulation du son se trouve le processus le plus utilisé tout au long de la pièce. Nous pouvons voir comme le son est traité à multiples échelles de temps d une façon dynamique et variable. Le traitement granulaire est toujours en correspondance avec un paramètre du son d entrée (voir plus tard le contrôle) et le résultat de l objet de granulation dépend toujours des données de l analyse de ce paramètre. Ainsi, on obtient un processus très riche qui dépend toujours du geste de l instrumentiste Filtrages 56 «Overlapping grain events» 69

70 Les filtrages passe-bande sont très utilisés aussi dans la musique du musicien italien. Comme nous avons dit avant, les filtrages sont toujours dynamiques et les valeurs sont variables dans le temps. L exemple suivant montre un cas d utilisation de filtre passe bande de basse fréquence. Le filtre varie selon l amplitude du son d entrée. La mise en correspondance entre l amplitude et la valeur du filtre est : (0,1) => (100, 1000). Cet à dire, quand l amplitude du signal d entrée sera petite, le spectre sera réduit ; quand l amplitude d entrée sera haute, le spectre sera plus grand. Exemple nº38: mise en correspondance entre l amplitude et un filtre passe-bande Changements dans la fréquence L utilisation des objets freq-shift et pitch-shifter level est aussi très récurrente. Avec un décalage temporel dans la ligne de retard, la modulation de fréquence permet toujours l amplification du spectre sonore. Dans l exemple suivant, Di Scipio montre un cas de traitement du son avec l objet «frequency shiter». L objet est contrôlé, comme dans les objets précédents, pour l amplitude du signal d entrée. La mise en correspondance est : (0,1) => (0.75, 2). Quand le signal d entrée est en silence, la valeur dans l objet freq-shift est 0.75 ; cet à dire, un intervalle de quarte descendante. Si le signal d entrée a une amplitude maximale, la fréquence est modulée une octave plus ascendante (valeur 2 pour l objet freq-shift). 70

71 Exemple nº39: mise en correspondance entre l amplitude et la modulation de fréquence Le contrôle : transformations DSP spécifiques au son. À propos du contrôle, Di Scipio fait référence à l idée de «permettre aux méthodes DSP de s adapter aux caractéristiques acoustiques spécifiques au son d entrée» (Di Scipio, 2007 : 306). Pour Di Scipio, le son d entrée ne porte pas seulement la source avec laquelle la programmation va travailler, mais porte aussi les caractéristiques qui vont conditionner le comportement des différents filtrages et processus. Ainsi, le compositeur écrit dans la partition une notation qui implique la composition du son comme résultat final physique acoustique et l interaction de ce son avec la programmation. Nous trouvons un dynamisme dans le comportement du patch motivé pour l analyse constant des paramètres dans ce son. Nous pouvons dire que dans la musique de Di Scipio, le musicien/interprète produit le son et le son port le contrôle. Pourtant, l interprète a le contrôle du son et le contrôle de la programmation. L interaction est constante et indispensable pour le processus. Donc, pour la composition, il faut déterminer les paramètres du son à analyser et sa répercussion dans un filtrage ou un autre. L exemple souvent nous monstre graphiquement le processus de contrôle du patch dans la pièce Due di Uno 57, ou Di Scipio montre tout un système de contrôle 57 Due di Uno, pièce pour flûte à bec piccolo, violon et életronique en direct. (2002) 71

72 variable (lignes en pointillés) et de contrôle automatisé (lignes en gras ; les lignes fines portant la signaux audio) : Exemple nº40: processus de contrôle du patch Dans la pièce Os Oris, le compositeur a choisi pour le contrôle l analyse des paramètres comme l intensité du son et la densité d événements sonores dans une mesure du temps déterminé. Cette dernière est établie selon la vitesse du geste, la durée de la note et le chevauchement éventuel de souffle et les percussions 58. Comme nous avons vu, la richesse de modes de jeu dans la pièce offre une énorme variabilité à sa sonorité. Cette variabilité permet au compositeur d établir plus de paramètres de contrôle et d avoir tout 58 «L éventuel sovrapposizione di soffio e percussione», dans la notice de la partition. 72

73 une gamme de valeurs à sa disposition pour les mettre en correspondance avec les opérations de traitements du son. Le processus dans Os Oris est très simple. L exemple suivant montre d une façon graphique comme Di Scipio faite le contrôle et comme le contrôle affecte au traitement du son : Entrée du son instrumental Analyse du son d entrée L amplitude La densité Vitesse du geste Durée de la note Chevauchement èventuel de souffle et les percussions Mapping linéaire Mapping linéaire Traitement x Traitement y Exemple nº41: contrôle et traitement du son Principes poïétiques chez Di Scipio La principale caractéristique dans la conception musicale de Di Scipio est, probablement, la création des systèmes musicaux vivants. Makis Solomos a très bien défini cet aspect-là comme la création des systèmes auto-régulés générateurs d un phénomène émergent à partir des interactions composées (Solomos, 2005). L importance dans l interaction est fondamentale. Pour lui, l interaction est le processus en soi-même et la substance à composer. 73

74 Il y a des idées de basse chez Di Scipio pour articuler ce processus. Le système vivant dans le compositeur italien répond aux principes poïétiques qui donnent à sa musique une sonorité très particulière. Dans Os Oris, nous trouvons une sonorité très homogène tout au long de la pièce. Le comportement de son système (disent l écriture comme base et contrôle et l interaction comme processus) a la tendance à être toujours stable. L omeostasis, comme il définit cette idée, provoque un comportement homogène, cohérent (Di Scipio, 2003). Nous pouvons dire qu Os Oris est une pièce très stable. L idée de processus génère une attitude musicale quasi immobile, même dans une structure bien délimitée avec des parties différenciées. Tout est né dans la matière même. Tout émerge du son. L image suivante montre un exemple d omeostasis dans Os Oris : Exemple nº42: principe d omeostasis Dans un autre sens Di Scipio combat la possibilité d être minimaliste 59 avec des interventions qui cassent le discours, des interventions qui ont une nature totalement différente à l inertie transitoire. Ce sont des variations fugaces, des interventions qui sont très éloignées dans le flux naturel. Di Scipio appelle cette situation comme un principe d omeoresis 60, une condition dans le processus qui provoque un comportement dynamique, changement (Solomos, 2005). L exemple suivant montre comme la percussion avec la «chiave» du trombone casse le processus d une granulation, en introduisant un nouvel élément, un phénomène de changement. 59 Sans aucun sens péjoratif. 60 Solomos utilise morphostase et mosphogénese en relation avec les terminus de Di Scipio Omeostasis et Omeoresis. 74

75 Exemple nº43: principe d omeoresis Il y a aussi chez Di Scipio un autre principe poïétique, le «principe de régulation du système vivant». Di Scipio les appelle fonctions. Il y a toujours un mécanisme régulateur de l interaction en fonction des critères établis par le compositeur. Le dynamisme dans le processus n est pas seulement généré pour la nature changeant du son d entrée et son comportement à l intérieur du système. Il y a aussi des variables externes au mécanisme et qui participent aussi dans l interaction, dans le système vivant 61. L intérieur et l extérieur du mécanisme sont toujours réglés selon des critères spécifiques. Nous pouvons dire que ces critères sont peut-être les formules de régulation de la mixité chez Di Scipio. Ils sont des contrôles automatisés qui donnent à sa musique d une esthétique très personnelle. Les exemples suivants détaillent quelques principes de mixité dans l œuvre de Di Scipio : Compensation, - on régule une composante x en fonction du comportement d une composante y -. Par exemple, on régule l amplitude du signal d entrée en fonction de la densité d événements perçue. Redondance, -si la composante x augmente, la composante y va être aussi augmenté-. Par exemple, augmenter la densité de grains va faire augmenter l intensité dans le volume. Dans le cas d Os Oris, Di Scipio faite une redondance avec le traitement granulaire. Si la densité d événements dans le signal d entrée augmente, le traitement du son va faire augmenter la densité de grains dans la granulation. 61 Di Scipio les appelle : «External conditions, room resonances». 75

76 Concurrence, - quand un événement sonore contraste ou concourt avec des autres événements prédominants -. Par exemple, augmenter les hautes fréquences quand les basses fréquences prédominent dans le signal d entrée Conclusion Os Oris est un exemple de processus de «composition des interactions». À partir d une notation très originale, la pièce montre une sonorité particulière à travers la recherche d une esthétique que se déroule entre «le bruiteuse» et le granulaire. Le compositeur utilise le trombone comme une fontaine de sources infinies, en explorant toutes les possibilités de jeu de l instrument. Le son est composé avec une double fonction. Il sert comme résultat final (avec ou sans transformations) et sert aussi comme élément de contrôle pour les différents processus de transformations du son. On obtient un processus dynamique à partir de la composition des interactions entre le son et la machine, que provoque un système vivant toujours en émergence. La composition d interactions est reliée aux différents systèmes de mise en correspondance entre les données des paramètres analysés et les logarithmes qui font les traitements. L étude d Os Oris nous a posé le problème qu il y a dans l interprétation de la musique de Di Scipio. Le musicien interprète doit penser l interprétation comme un processus d exécution des interactions composées et en même temps comme un mécanisme de contrôle d un dispositif électroacoustique ou la musique est le résultat final. Du point de vue esthétique, Os Oris m a beaucoup apporté. Di Scipio a obtenu avec son système une musique très originelle. Bruiteuse et granulaire, sa musique s intègre toujours dans un univers inharmonique très cohérente et fascinante. Sa manière 62 Traduction de l Anglais. Organised sound. 76

77 de composer les interactions n a pas été une nouveauté pour moi, parce que j ai étudié les processus des interactions depuis ma première approche de l écriture mixte à Paris 8. L écriture instrumentale n a pas été non plus une nouveauté : profiter des différents modes de jeu pour avoir une musique riche et bruiteuse n est rien originale. Mais peutêtre sa finesse dans la somme de toutes les deux et l incorporation à son système du composant extérieur à ce qui a été pre- composée, disons le bruit dans l ambiance et des facteurs externes non- pre conçus, faisant une musique différente et pourquoi pas le dire, Scipiniana. Nous avons travaillé sur ce chapitre avec le propos d étudier les théories de Di Scipio et de les contraster avec sa propre musique. Pour étudier ses propositions en détail dans le domaine scientifique et esthétique, il faut une étude beaucoup plus détaillée et précise. Mais ce travail est déjà une approche et peut-être est un premier pas pour l étude de l œuvre de Di Scipio dans la composition contemporaine. Ce travail peut nous servir aussi pour la compréhension des questions d émergence et interaction dans l écriture de la musique mixte en temps réel. 77

78 Troisième chapitre «Luz» 3.1. Introduction «Luz» est une pièce mixte en temps réel pour basson et Max MSP. L œuvre a été développée à l Université de Cardiff et à l Université de Birmingham pendant l année universitaire La pièce est le résultat de ma recherche sur l interaction, la mixité et la problématique de la musique mixte en temps réel autour des différents modèles de communication entre les instruments et les ordinateurs. La réalisation de ce mémoire et les analyses réalisées sur la musique mixte m ont donné beaucoup d idées pour la composition et en même temps, m ont suscité beaucoup de questions sur l idée de la communication et l interactivité. Pour faire la pièce, j ai bénéficié de l aide des professeurs et de l instrumentiste. Le processus poïétique a beaucoup changé parce que la composition a été faite à partir de séances pratiques et d improvisations. Le résultat final ressemble très peu à mes idées d origine et cette manière d aborder la composition a été très satisfaisante. La pièce a été jouée à l Université de Birmingham le 28 de mai 2008, dans la salle Recital Hall. La performance n a pas eu beaucoup de succès à cause du réglage du dispositif multiphonique. Nous avons eu des problèmes avec le volume des haut-parleurs pendant le concert et les séquences ont été changées hors du temps par la part de l instrumentiste. Le CD joint au mémoire montre une version stéréophonique enregistrée après le concert. 78

79 3.2 Principes poïétiques Pendant l année universitaire à l Université Paris VIII, nous avons composé une œuvre pour ensemble instrumental, Dauna 63, où nous étudions l harmonicité de la pièce en fonction des modes de jeu des instruments. La pièce a été divisée en trois parties selon l état d harmonicité de la musique. La transition entre les états nous a donné une ressource très efficace pour l articulation de la musique. Luz montre une étude de la transition entre les étapes d harmonicité, mais avec l utilisation de l électronique. Pour construire les états inharmoniques de mon projet nous avons été très influencé par la sonorité de la pièce d Agostino Di Scipio Os Oris. Les instruments à vent sont très riches et nous pouvons obtenir des sonorités inharmoniques très diverses. De plus, l électronique est une ressource très importante pour renforcer le niveau d inharmonicité et nous pouvons ajouter des traitements du son en temps réel très bruiteuses. Le passage suivant présente des sonorités bruiteuses avec un grand niveau d inharmonicité. Ç Exemple nº44: niveau d inharmonicité La localisation de la source instrumentale a été un autre principe pour la composition. L utilisation du délai temporel et de traitements granulaires du son nous a permis de modifier la référence temporelle du son direct d une façon électronique. Parfois, le public reconnaît la provenance du son traité, mais nous trouvons de cas où le public est incapable de localiser la source 63 Pour percussion, clarinette, saxophone, violoncelle et contrebasse. 79

80 L écriture instrumentale possède un style de composition très proche du pointillisme. L utilisation d unités sonores très petites situe la pièce dans un état intermédiaire entre la micro et la mezzo structure. Parfois, le flux d événements est coupé par des sonorités contrastantes, avec une longue durée et avec une nature morphologique très différente. Exemple nº45: style de composition pointilliste. 3.3 La structure de la pièce La pièce a été divisée en quatre sections. Nous pouvons dire que la forme globale de l oeuvre a été pre- conçue avant la composition. Nous avons choisi un «modèle en bloques 64» : A - B - C - A. Les bloques présentent des différences en fonction du niveau d harmonicité de la pièce, du traitement du son, de la mixité et de l interaction et la communication entre les sources. Nous avons construit la syntaxe à partir du choix de petites structures morphologiques très caractéristiques qui forment l articulation sonore de chaque section. L image montre l articulation du son dans le début de la pièce. Exemple nº46: articulation du son 3.4 L écriture instrumentale 64 Elsa Justel utilise ce terme dans sa classification des structures formelles dans la musique électroacoustique. Justel,

81 Nous avons fait une classification des modes de jeu du basson en fonction de leur niveau de bruit et de leur harmonicité. Nous avons des sons de souffle solo, des sons intermédiaires entre le souffle et le son, slaps, picados, picados-legatos, bruit de clés, flaterzunges etc. Toute cette palette de sonorités est un très bon outil pour articuler la musique et rendre le discours sonore plus riche et varié. Comment nous pouvons le voir, l écriture n est pas attachée à une mesure déterminée. Les valeurs des notes doivent être jouées selon l indication de tempo du début de la pièce, c est-à-dire, noir = 60 mais l interprétation doit être flexible par rapport à la partie électroacoustique. L instrumentiste doit s adapter au contexte et doit jouer selon le comportement et les messages reçus par le dispositif électroacoustique. Nous avons utilisé le symbole pour changer la programmation à l intérieur du dispositif. Le bassiste doit appuyer sur la pédale MIDI et le patch changera la structure de la programmation. Exemple nº46: dèbut de la sequénce L écriture du patch Le patch est structuré en différents modules. Nous avons le module d entrée du son, d analyse du son, de contrôle du patch, les modules des traitements du son et le module pour faire sortir le son (spatialisation). 81

82 Exemple nº47: détail du patch. L analyse du son utilise les objets fiddle, peakamp, noisiness et bonk pour l analyse de la fréquence, l amplitude et le niveau de bruit et les attaques. Le système d analyse inclut un module pour l analyse de la densité d événements. Le sous-patch reçoit les attaques analysées par l objet bonk et nous indique le niveau d activité de la musique. Le système ne peut percevoir que les événements qui ont des attaques du son, c est-à-dire que l objet ne détecte pas un changement mélodique dans un passage «legato» (sans attaques). 82

83 Exemple nº48: objet pour analyser le niveau d activité Dans le même module d analyse, nous utilisons l objet ranger 65 pour le réglage des valeurs reçues. Nous faisons un calibrage pour aider une mise en correspondance valable dans toutes les performances et avec n importe quel instrumentiste. La transformation du son a comme modules de traitement du son la granulation (l objet munger ), la ligne de retard (l objet tapin / tapout ), le changement dynamique de fréquence (l objet freqshift ) et un autre module pour le changement de fréquence que nous utilisons d une manière statique (l objet gizmo ). Le son est spatialisé par l objet ambipan et les trajectoires sont faites par l objet trajectory 66. Le comportement du patch fonctionne de manière mixte, c est-à-dire que parfois les valeurs changent d une façon fixe, déterminée par le compositeur et parfois les valeurs changent d une façon dynamique, selon l interaction avec l instrumentiste. L exemple nous montre le module de changement de fréquence. Les valeurs peuvent être fixes ou dynamiques. L objet peut recevoir des valeurs après l analyse du son avec l objet noisiness ou bien des valeurs après l activation du système. Nous devons ouvrir l objet toggle. 65 L objet a été étudié dans le premier chapitre de ce mémoire. 66 La plupart de ces objets ont été expliqués dans le premier chapitre. 83

84 Exemple nº49: module de changement de fréquence Les valeurs fixes sont stockées dans l objet patterstorage et la programmation change à chaque fois que la pédale MIDI est activée par l instrumentiste La mixité et l interaction Le comportement des sources nous a beaucoup aidé dans l articulation de la structure de la pièce. Dans la première section, l instrument et l électronique montrent un comportement similaire. La morphologie des sons dans le fagot est similaire au traitement du son. Nous pouvons dire que la mixité est homogène. La deuxième et troisième partie changent totalement la mixité. Nous trouvons un comportement hétérogène et divergent à plusieurs échelles de la musique. La morphologie, la spatialisation et le niveau d activité sont tout à fait différents et montrent une mixité 84

85 basée sur le principe d opposition. La dernière section a une mixité très homogène avec des petits changements anecdotiques dans le comportement. L interaction entre les sources est toujours présente, mais à différents niveaux de communication. L instrumentiste doit parfois ajuster son interprétation en fonction du comportement du patch. Ça nous donne une performance très flexible et dynamique. L exemple montre un passage où le bassiste doit attendre la partie électronique. Exemple nº50: l instrumentiste doit attendre la partie électronique Le système électroacoustique répond selon l analyse des valeurs reçues. L image suivante présente la réception de données après l analyse du son. Le sous-patch réalise le réglage à travers l objet ranger et fait une mise en correspondance des valeurs. Comme nous pouvons le constater, les analyses de fréquence (fiddle ) et d amplitude (peakamp ) vont contrôler des paramètres dans la granulation du son (munger ); le niveau du bruit (noisiness ) va régler la ligne de retard et la modulation de fréquence (freqshift ) ; et la densité du son contrôlera le changement dans la ligne de retard. Exemple nº51: réglage et mise en correspondance 85

APPROCHE MUSICALE DE LA DECORRELATION MICROTEMPORELLE DANS LA BIBLIOTHEQUE HOA

APPROCHE MUSICALE DE LA DECORRELATION MICROTEMPORELLE DANS LA BIBLIOTHEQUE HOA APPROCHE MUSICALE DE LA DECORRELATION MICROTEMPORELLE DANS LA BIBLIOTHEQUE HOA Anne Sèdes CICM-EA 1572 Université Paris 8, LABEX Arts H2H, MSH Paris Nord anne.sedes@univ-paris8.fr RÉSUMÉ Après un rappel

Plus en détail

CLASSE DE COMPOSITION NOUVELLES TECHNOLOGIES - CONSERVATOIRE DU 19ÈME, PARIS - SESSION JUIN 2014

CLASSE DE COMPOSITION NOUVELLES TECHNOLOGIES - CONSERVATOIRE DU 19ÈME, PARIS - SESSION JUIN 2014 CLASSE DE COMPOSITION NOUVELLES TECHNOLOGIES - CONSERVATOIRE DU 19ÈME, PARIS - SESSION JUIN 2014 STÉPHANE DE GÉRANDO RÉSUMÉ. Classe de composition - nouvelles technologies image et son du conservatoire

Plus en détail

Courants et styles. des musiques électroacoustiques "

Courants et styles. des musiques électroacoustiques Histoire des musiques du XX e siècle Courants et styles des musiques électroacoustiques " Professeur : Marc Battier" Université de Paris-Sorbonne (Paris IV) Musique électroacoustique marc.battier@paris-sorbonne.fr

Plus en détail

ACOUSTIQUE 3 : ACOUSTIQUE MUSICALE ET PHYSIQUE DES SONS

ACOUSTIQUE 3 : ACOUSTIQUE MUSICALE ET PHYSIQUE DES SONS Matériel : Logiciel winoscillo Logiciel synchronie Microphone Amplificateur Alimentation -15 +15 V (1) (2) (3) (4) (5) (6) ACOUSTIQUE 3 : ACOUSTIQUE MUSICALE ET PHYSIQUE DES SONS Connaissances et savoir-faire

Plus en détail

Acoustique musicale et physique des sons

Acoustique musicale et physique des sons TP DE PHYSQIUE N 8 SPECIALITE TS 1/6 ACOUSTIQUE MUSICALE ET PHYSIQUE DES SONS Objectifs TP de physique N 8 Acoustique musicale et physique des sons Connaître le domaine des fréquences audibles pour l oreille

Plus en détail

INDUSTRIES TECHNIQUES

INDUSTRIES TECHNIQUES Mixeur Version 1 «Mixeur» APPELLATION(S) DU METIER Ingénieur du son mixeur Ingénieur du son postproduction DEFINITION DU METIER Le mixeur (souvent ingénieur du son mixeur) effectue un travail de mixage

Plus en détail

Documentation technique Magnétique, Etudes Electriques, 6 clarinette et électronique Grégoire Lorieux

Documentation technique Magnétique, Etudes Electriques, 6 clarinette et électronique Grégoire Lorieux Documentation technique Magnétique, Etudes Electriques, 6 clarinette et électronique Grégoire Lorieux Sommaire 1- Matériel et mise en place 2- la partie électronique 3- Notes d interprétation pour l électronique

Plus en détail

! # % & ( ))))))))))))))))))))))))))))) +,!! #! #

! # % & ( ))))))))))))))))))))))))))))) +,!! #! # ,!! #! #! % & () + ! # % & ( ))))))))))))))))))))))))))))) +,!!#!#!!!. %&%& ( )! +, %. / 0 12 12 %& # ( &!(!& (! & (!(! ( ) +,!. + )(, & (!(! /0.!# 1! # %& # %& ( & ) # % #!#!!!! & & & /0.!# 1! # %& (

Plus en détail

RÉALISATION D ÉMISSION DE TÉLÉVISION. Activités

RÉALISATION D ÉMISSION DE TÉLÉVISION. Activités RÉALISATION D ÉMISSION DE TÉLÉVISION Activités 147 148 Étudier le projet de l émission 1.1.S informer et discuter du projet de l émission S informer auprès du producteur de ses intentions Faire préciser

Plus en détail

Référentiels métiers du son

Référentiels métiers du son Référentiels métiers du son S M A Avec le soutien du Fond Social Européen 1. Définition du métier Chargé d assurer la qualité artistique et technique de la sonorisation d un spectacle, c est un professionnel

Plus en détail

Jazz, Improvisation, Chanson

Jazz, Improvisation, Chanson Jazz, Improvisation, Chanson Conservatoire MUSIQUE DANSE THÉÂTRE édition 2015 Conservatoire à Rayonnement Régional MUSIQUE DANSE THÉÂTRE Sommaire PRÉSENTATION DU CONSERVATOIRE P. 4 LE JAZZ CURSUS CONTENU

Plus en détail

TP 8 : Analyse spectrale d un son

TP 8 : Analyse spectrale d un son «La musique est une science qui doit avoir des règles certaines ; ces règles doivent être tirées d un principe évident, et ce principe ne peut guère nous être connu sans le secours des mathématiques» Jean

Plus en détail

L Ircam, institution du dialogue art-science

L Ircam, institution du dialogue art-science L Ircam, institution du dialogue art-science Hugues Vinet 1 1. STMS, IRCAM-CNRS-UPMC IRCAM, 1 place Igor Stravinsky, 75004 Paris, France hugues.vinet@ircam.fr 1. Jalons historiques et liens institutionnels

Plus en détail

Catalogue des formations. Saison 2015 2016

Catalogue des formations. Saison 2015 2016 Catalogue des formations Saison 2015 2016 LE GROUPE MUSIQUES VIVANTES DE LYON Depuis sa création en 1975 par Marc Favre et Bernard Fort, son objectif est de promouvoir les activités culturelles liées à

Plus en détail

Nouveaux matériels de captation haute précision

Nouveaux matériels de captation haute précision Nouveaux matériels de captation haute précision Thierry Coduys, Cyrille Henry La kitchen - 5 rue Laugier 75017 PARIS Thierry.coduys@la-kitchen.fr, Cyrille.henry@la-kitchen.fr Résumé Les débits des lignes

Plus en détail

Plan d'études romand

Plan d'études romand Plan d'études romand ARTS - Musique - Cycle 3 Précisions VS Précisions annuelles - Indications pédagogiques DECS / SE - mai 2011-1 - PER > ARTS > MUSIQUE > EXPRESSION ET REPRESENTATION > 3E CYCLE A 31

Plus en détail

Les bases théoriques du numérique

Les bases théoriques du numérique Les bases théoriques du numérique 1. Différences entre signaux analogiques et signaux numériques L analogique et le numérique sont deux procédés pour transporter et stocker des données. (de type audio,

Plus en détail

Traitement de données pour capteurs embarqués

Traitement de données pour capteurs embarqués Traitement de données pour capteurs embarqués Cyrille Henry, Thierry Coduys La kitchen 78, avenue de la république 75011 PARIS Cyrille.Henry@la-kitchen.fr Thierry.Coduys@la-kitchen.fr Résumé : Les capteurs

Plus en détail

P5 Ondes acoustiques ; acoustique musicale

P5 Ondes acoustiques ; acoustique musicale Ondes acoustiques ; acoustique musicale On appelle onde mécanique le phénomène de propagation d une perturbation dans un milieu élastique, sans transport de matière mais avec transport d énergie. L exemple

Plus en détail

RÉALISATION DE FILM INSTITUTIONNEL activités

RÉALISATION DE FILM INSTITUTIONNEL activités RÉALISATION DE FILM INSTITUTIONNEL activités 161 Étudier la commande de film institutionnel 1.1. Analyser le contexte de la commande s informer sur les attentes du commanditaire ou du client analyser les

Plus en détail

Environnement logiciel open source pour la création d œuvres artistiques interactives

Environnement logiciel open source pour la création d œuvres artistiques interactives Environnement logiciel open source pour la création d œuvres artistiques interactives Stéphane Donikian IRISA/CNRS Campus de Beaulieu 35042, Rennes Cedex, France donikian@irisa.fr La création artistique

Plus en détail

FORMATION TECHNIQUE SPECIFIQUE OUTILS NUMERIQUES ECLAIRAGE & GESTION NUMERIQUE DE LA LUMIERE

FORMATION TECHNIQUE SPECIFIQUE OUTILS NUMERIQUES ECLAIRAGE & GESTION NUMERIQUE DE LA LUMIERE GROUPE VALORIALE VALORIALE FORMATION FORMATION TECHNIQUE SPECIFIQUE OUTILS NUMERIQUES ECLAIRAGE & GESTION NUMERIQUE DE LA LUMIERE Catalogue des formations valable jusqu au 31/12/13 VALORIALE 2012-2013

Plus en détail

L IFAC. Projet associatif. Le chant choral en partage, en dialogue et en action

L IFAC. Projet associatif. Le chant choral en partage, en dialogue et en action L IFAC Projet associatif Le chant choral en partage, en dialogue et en action Contexte La pratique du chant choral en France est caractérisée par une diversité remarquable héritée de sa trajectoire historique.

Plus en détail

VISUALISATION DU SONORE AVEC LE LOGICIEL EGOSOUND :

VISUALISATION DU SONORE AVEC LE LOGICIEL EGOSOUND : VISUALISATION DU SONORE AVEC LE LOGICIEL EGOSOUND : WORK IN PROGRESS Anne Sedes, Benoit Courribet, Jean-Baptiste Thiébaut CICM (Centre de recherche en Informatique et Création Musicale), Université de

Plus en détail

Session 1 : Introduction

Session 1 : Introduction UNESCO 2004-2005 Séminaire pratique Les étapes d une création électroacoustique simple Bruno BOSSIS Session 1 : Introduction Objectifs Ce séminaire propose à un débutant d aborder pas à pas la création

Plus en détail

POMPILOOP, LOGICIEL DE CREATION MUSICALE JEUNE PUBLIC

POMPILOOP, LOGICIEL DE CREATION MUSICALE JEUNE PUBLIC POMPILOOP, LOGICIEL DE CREATION MUSICALE JEUNE PUBLIC Jean-Baptiste Thiebaut CICM - Université Paris VIII MSH Paris Nord jbthiebaut@mshparisnord.org RÉSUMÉ Cet article présente le logiciel Pompiloop, destiné

Plus en détail

BULLETIN D INSCRIPTION

BULLETIN D INSCRIPTION BULLETIN D INSCRIPTION À découper et à retourner à Domaine Musiques, 105 Avenue de la République 59110 La Madeleine Courriel formations@domaine-musiques.com www.domaine-musiques.com NOM FORMATIONS ART

Plus en détail

Chapitre 2 Les ondes progressives périodiques

Chapitre 2 Les ondes progressives périodiques DERNIÈRE IMPRESSION LE er août 203 à 7:04 Chapitre 2 Les ondes progressives périodiques Table des matières Onde périodique 2 2 Les ondes sinusoïdales 3 3 Les ondes acoustiques 4 3. Les sons audibles.............................

Plus en détail

DÉBUTER LA MUSIQUE : ÉVEIL, INITIATION ET 1 er CYCLE

DÉBUTER LA MUSIQUE : ÉVEIL, INITIATION ET 1 er CYCLE Schéma d'orientation pédagogique de la musique avril 2008 FICHE PÉDAGOGIQUE A1 DÉBUTER LA MUSIQUE : ÉVEIL, INITIATION ET 1 er CYCLE Sommaire Introduction I L éveil musical Phase de développement des perceptions

Plus en détail

Domaine d'étude 2: Emetteur et récepteur

Domaine d'étude 2: Emetteur et récepteur Etude du niveau sonore Domaine d'étude 2: Emetteur et récepteur Mots clés : Enceintes acoustiques, auditorium, Sommaiire Principe : --------------------------------------------------------------1 1. Atténuation

Plus en détail

Propriétés ondulatoires du son

Propriétés ondulatoires du son Propriétés ondulatoires du son But de la manipulation : Illustrer le caractère ondulatoire du son. Introduction : Pour se convaincre que le son est une onde, il suffit de montrer que son comportement est

Plus en détail

Multiplicité Homme-Machine

Multiplicité Homme-Machine Multiplicité Homme-Machine Composer avec l ordinateur Septième saison du Séminaire MaMuX-IRCAM, Première séance, 6 octobre 2007: Mathématiques/Musique et Composition Assistée par Ordinateur Arturo Fuentes

Plus en détail

I.2 Comment passer d un signal analogique en un signal numérique sans perdre de l information?

I.2 Comment passer d un signal analogique en un signal numérique sans perdre de l information? I- Chaîne d information I.1 Généralités Dans un ballon-sonde, on trouve des capteurs (température, luminosité, pression ) plus ou moins sophistiqués. Nous allons voir que pour un problème technique identique

Plus en détail

Recherches en création et pédagogie musicales assistées par la technologie

Recherches en création et pédagogie musicales assistées par la technologie Recherches en création et pédagogie musicales assistées par la technologie Hugues Vinet Directeur scientifique Présentation de l Ircam Institut de recherche et de coordination acoustique/ musique Tutelle

Plus en détail

performance audiovisuelle

performance audiovisuelle performance audiovisuelle p r é s e n tat i o n J ai essayé de montrer comment cette espèce de «vrille» entre la théorie musicale, une partie donc de la musique, et la théorie des mathématiques s enroulent

Plus en détail

ANNEXE - INNOVATIONS. processus, nom masculin

ANNEXE - INNOVATIONS. processus, nom masculin ANNEXE - INNOVATIONS» processus, nom masculin sens 1 - Suite d'opérations ou d'événements. Synonyme : évolution sens 2 - Ensemble d'actions ayant un but précis. NOS ACCESSOIRES INTELLIGENTS DONNER VIE

Plus en détail

Interaction Instrumentale Polymorphisme et réification dans les interfaces homme-machine

Interaction Instrumentale Polymorphisme et réification dans les interfaces homme-machine Interaction homme-machine Etat de l'art Interaction Instrumentale Polymorphisme et réification dans les interfaces homme-machine Michel Beaudouin-Lafon LRI, Université Paris-Sud mbl@lri.fr http://www-ihm.lri.fr/~mbl

Plus en détail

RÉFLEXIONS À PROPOS DE LA MISE EN ESPACE DE LA MUSIQUE ÉLECTROACOUSTIQUE DANS LES LOGICIELS AUDIONUMÉRIQUES

RÉFLEXIONS À PROPOS DE LA MISE EN ESPACE DE LA MUSIQUE ÉLECTROACOUSTIQUE DANS LES LOGICIELS AUDIONUMÉRIQUES RÉFLEXIONS À PROPOS DE LA MISE EN ESPACE DE LA MUSIQUE ÉLECTROACOUSTIQUE DANS LES LOGICIELS AUDIONUMÉRIQUES Bertrand MERLIER Université Lumière Lyon 2 département Musique 18, quai Claude Bernard 69365

Plus en détail

Programme de l école maternelle

Programme de l école maternelle Programme de l école maternelle Document d aide pour la mise en œuvre DSDEN 91 - Mission Ecole maternelle Attendus par domaine et sous-domaine d apprentissage DSDEN 91- Mission Ecole maternelle- Page 1

Plus en détail

ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE

ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE Atelier «pour approfondir» Montage vidéo avec Windows Live Movie Maker 1 Présentation de Windows Live Movie Maker Windows Live Movie Maker est le logiciel de

Plus en détail

L'audiodescription. Principes et orientations

L'audiodescription. Principes et orientations L'audiodescription Principes et orientations Rendre la culture accessible à tous permet d éviter l exclusion. L audiodescription est une technique de description destinée aux personnes aveugles et malvoyantes.

Plus en détail

Danseur / Danseuse. Les métiers du spectacle vivant

Danseur / Danseuse. Les métiers du spectacle vivant Les métiers du spectacle vivant Filière : artistique Domaine : art chorégraphique Appellations voisines : artiste chorégraphique Autres métiers du domaine : chorégraphe, maître de ballet, notateur Danseur

Plus en détail

EPREUVE ORALE D ENTRETIEN DOMAINE DES ARTS VISUELS

EPREUVE ORALE D ENTRETIEN DOMAINE DES ARTS VISUELS EPREUVE ORALE D ENTRETIEN DOMAINE DES ARTS VISUELS Concours concernés : - Concours externe de recrutement de professeurs des écoles - Concours externe spécial de recrutement de professeurs des écoles -

Plus en détail

«ATELIER RACONTÉ» : LE VJING

«ATELIER RACONTÉ» : LE VJING LES ARTS NUMÉRIQUES L'Atelier Auteur «ATELIER RACONTÉ» : LE VJING Romuald Beugnon Date 2010 Descriptif Témoignage d'un réalisateur intervenant sur le Vjing : présentation d'une démarche menée dans le cadre

Plus en détail

T e s s e ll a* * Tessella, mot issu du latin décrit un petit cube en marbre, en pierre ou en quelque composition, servant à paver une mosaïque.

T e s s e ll a* * Tessella, mot issu du latin décrit un petit cube en marbre, en pierre ou en quelque composition, servant à paver une mosaïque. T e s s e ll a* * Tessella, mot issu du latin décrit un petit cube en marbre, en pierre ou en quelque composition, servant à paver une mosaïque. Sommaire : 1. Dossier du projet 1.1. Synopsis et caractère

Plus en détail

À propos de Projections libérantes

À propos de Projections libérantes À propos de Projections libérantes Fondé en 2011, Projections libérantes est un organisme de production de concerts de musique d art. N étant attaché à aucun groupe d interprètes ni soumis à aucune programmation

Plus en détail

Ateliers - stages d éveil artistique Ateliers adaptés art-thérapie Conférences rencontres sensibilisation Pratiques artistiques & liens culturels

Ateliers - stages d éveil artistique Ateliers adaptés art-thérapie Conférences rencontres sensibilisation Pratiques artistiques & liens culturels Ateliers - stages d éveil artistique Ateliers adaptés art-thérapie Conférences rencontres sensibilisation Pratiques artistiques & liens culturels www.terredesarts.asso.fr Démarche L'association Terre des

Plus en détail

Remue méninge (10 minutes) Dressez la liste des idées, des thèmes ou des sujets proposés par les membres du groupe 2. 3. 4. 5. 6. 7. 8.

Remue méninge (10 minutes) Dressez la liste des idées, des thèmes ou des sujets proposés par les membres du groupe 2. 3. 4. 5. 6. 7. 8. Danses pour des jeunes par des jeunes Processus de création Nous nous exprimons par la danse La danse qui sera créée devra refléter une préoccupation sociale qui est importante et signifiante à ta génération.

Plus en détail

TP oscilloscope et GBF

TP oscilloscope et GBF TP oscilloscope et GBF Ce TP est évalué à l'aide d'un questionnaire moodle. Objectif : ce travail a pour buts de manipuler l oscilloscope et le GBF. A l issu de celui-ci, toutes les fonctions essentielles

Plus en détail

D ordre personnel et social, méthodologique, intellectuel, de la communication

D ordre personnel et social, méthodologique, intellectuel, de la communication Activité : La musique qui anime Période : XX e siècle Technique : Pixilation Cycle : 3 e cycle primaire Site Web : www.cslaval.qc.ca/lignedutemps But du projet de la ligne du temps virtuelle Se renseigner

Plus en détail

LeCroy. Recherche de défauts sur circuits logiques à l aide d oscilloscopes numériques

LeCroy. Recherche de défauts sur circuits logiques à l aide d oscilloscopes numériques LeCroy Recherche de défauts sur circuits logiques à l aide d oscilloscopes numériques Avec la constante évolution industrielle, les ingénieurs d études doivent aujourd hui caractériser en permanence de

Plus en détail

PLAN D'ÉTUDES DE MUSICOLOGIE

PLAN D'ÉTUDES DE MUSICOLOGIE DÉPARTEMENT D HISTOIRE DE L ART ET DE MUSICOLOGIE PLAN D'ÉTUDES DE MUSICOLOGIE MAÎTRISE UNIVERSITAIRE MASTER OF ARTS (MA) Entrée en vigueur : Mois Année Avant-propos..sine musica nulla disciplina potest

Plus en détail

Conservatoire. de Carcassonne Agglo

Conservatoire. de Carcassonne Agglo Conservatoire de Carcassonne Agglo renseignements Conservatoire Intercommunal de Carcassonne Agglo Quartier Prat Mary - Avenue Jules Verne Tél. : 04 68 10 56 35 conservatoire@carcassonne-agglo.fr Coût

Plus en détail

Référentiel d'activités professionnelles et référentiel de certification Diplôme d'état de professeur de musique

Référentiel d'activités professionnelles et référentiel de certification Diplôme d'état de professeur de musique Référentiel d'activités professionnelles et référentiel de certification Diplôme d'état de professeur de musique I Contexte du métier 1. Définition Les professeurs de musique diplômés d'état sont chargés

Plus en détail

laboratoire artistique transdisciplinaire

laboratoire artistique transdisciplinaire laboratoire artistique transdisciplinaire «Insula Prod, spécialiste du Mapping Vidéo et des immersions interactives» L ART D AUGMENTER LA RÉALITÉ Une expérience sensorielle unique De plus en plus présent

Plus en détail

Architecture des calculateurs

Architecture des calculateurs Chapitre 1 Architecture des calculateurs 1.1 Introduction Ce paragraphe n a pas la prétention de présenter un cours d informatique. D une manière générale, seuls les caractéristiques architecturales qui

Plus en détail

Guénael Launay. Différences entre signaux analogiques et signaux numériques 2

Guénael Launay. Différences entre signaux analogiques et signaux numériques 2 Guénael Launay Différences entre signaux analogiques et signaux numériques 2 Convertisseur analogique numérique analogique. 3 Convertisseur analogique numérique 3 Convertisseur numérique analogique 3 Théorie

Plus en détail

Si nous nous contentions d un champ de vision de 40, il faudrait quatre ou cinq perspectives pour représenter un espace d habitation.

Si nous nous contentions d un champ de vision de 40, il faudrait quatre ou cinq perspectives pour représenter un espace d habitation. Avant-propos La vue en perspective correspond bien à une perception humaine de l espace. La représentation d une perspective à l aide de la géométrie traduit, elle, avec précision les phénomènes optiques

Plus en détail

Le traitement du signal

Le traitement du signal FICHE N 47 Le traitement du signal FFT, DFT ET IFT Jean-aptiste Joseph Fourier (1768-1830), né à uxerre, mathématicien et physicien français, auteur de la Théorie analytique de la chaleur (1822) : la transformée

Plus en détail

Enseignement supérieur Recherche

Enseignement supérieur Recherche Enseignement supérieur Recherche Ministère de la Culture et de la Communication - 01/2012 61 CADRE DE DIRECTION EN ÉTABLISSEMENT D ENSEIGNEMENT SUPÉRIEUR ET DE RECHERCHE Code : RCH01 Cadre de direction

Plus en détail

Formation des chefs de chœur

Formation des chefs de chœur UNIVERSITÉ PARIS-SORBONNE ÉCOLE DOCTORALE V (ED 0433) Concepts et langages Laboratoire de recherche EA 206 Observatoire Musical Français T H È S E pour obtenir le grade de DOCTEUR DE L UNIVERSITÉ PARIS-SORBONNE

Plus en détail

A1.- Le décibel et le bruit les unités acoustiques

A1.- Le décibel et le bruit les unités acoustiques A1.- Le décibel et le bruit les unités acoustiques A1.1.- Définition du bruit : A1.1.1.- Production et caractéristiques d un son Tout corps qui se déplace ou qui vibre émet un son. Il transmet sa vibration

Plus en détail

Mes premiers diaporamas avec Open Office Impress?

Mes premiers diaporamas avec Open Office Impress? Mes premiers diaporamas avec Open Office Impress? Courage! Tu vas y arriver 1 Sommaire I. Les bons gestes avant de lancer Open Office (page 3) II. Créer un dossier Open Office. (page 4) III. Les 5 zones

Plus en détail

Laennext aspects techniques

Laennext aspects techniques Laennext aspects techniques 1 LAENNEXT : ASPECTS TECHNIQUES Résumé L'obstruction des voies respiratoires par des glaires provoque l'apparition de bruits spécifiques lors de la respiration, ces bruits sont

Plus en détail

Réalité Virtuelle et applications. Julien CASTET

Réalité Virtuelle et applications. Julien CASTET Réalité Virtuelle et applications Julien CASTET 2 Un nouveau paradigme esthétique : le processus i Si on admet que l oeuvre d art se justifie par sa fonction de «témoin d une époque», la création artistique

Plus en détail

Guy Reibel. Un team Building qui vous enchante! La voix : une source de plaisir, de créativité et d épanouissement

Guy Reibel. Un team Building qui vous enchante! La voix : une source de plaisir, de créativité et d épanouissement Le Jeu Vocal Guy Reibel Un team Building qui vous enchante! La voix : une source de plaisir, de créativité et d épanouissement Une pratique inédite pour développer l esprit d équipe Contact : Mr Michel

Plus en détail

BÂTIR UNE STRATÉGIE DE RÉMUNÉRATION

BÂTIR UNE STRATÉGIE DE RÉMUNÉRATION Introduction L a question de la rémunération se situe, par nature, au fondement même des pratiques de gestion du personnel. Aussi peu développée soit-elle, toute gestion des ressources humaines s organise

Plus en détail

LA VOIX ET L OREILLE HUMAINE APPLICATION À LA RECONNAISSANCE VOCALE

LA VOIX ET L OREILLE HUMAINE APPLICATION À LA RECONNAISSANCE VOCALE TS - Physique-Chimie - Spécialité Son et musique - Séance 1/9 Domaine d étude : émetteurs et récepteurs sonores Mots-clefs : voix, acoustique physiologique, reconnaissance vocale LA VOIX ET L OREILLE HUMAINE

Plus en détail

Pierre Couprie. «Analyser la musique électroacoustique avec le logiciel ianalyse» EMS08

Pierre Couprie. «Analyser la musique électroacoustique avec le logiciel ianalyse» EMS08 Pierre Couprie «Analyser la musique électroacoustique avec le logiciel ianalyse» EMS08 Electroacoacoustic Music Studies Network International Conference 3-7 juin 2008 (Paris) - INA-GRM et Université Paris-Sorbonne

Plus en détail

Le son est le piment de la vie

Le son est le piment de la vie Le son est le piment de la vie Laissez le son donner du piment à votre vie Safran aiguise votre audition A l image d une recette culinaire dont les épices constituent l essentiel des saveurs les plus recherchées,

Plus en détail

CARTES ET TABLEAUX INTERACTIFS : NOUVEAUX ENJEUX POUR L ANALYSE DES MUSIQUES ELECTROACOUSTIQUES

CARTES ET TABLEAUX INTERACTIFS : NOUVEAUX ENJEUX POUR L ANALYSE DES MUSIQUES ELECTROACOUSTIQUES CARTES ET TABLEAUX INTERACTIFS : NOUVEAUX ENJEUX POUR L ANALYSE DES MUSIQUES ELECTROACOUSTIQUES Pierre Couprie OMF-MINT Université Paris-Sorbonne MTIRC De Montfort University pierre.couprie@paris-sorbonne.fr

Plus en détail

Sillage Météo. Notion de sillage

Sillage Météo. Notion de sillage Sillage Météo Les représentations météorologiques sous forme d animation satellites image par image sont intéressantes. Il est dommage que les données ainsi visualisées ne soient pas utilisées pour une

Plus en détail

Utilisation des MITIC dans l'enseignement de la musique

Utilisation des MITIC dans l'enseignement de la musique Utilisation des MITIC dans l'enseignement de la musique Cours formation continue HEPL AA059 Utilisation des MITIC dans l'enseignement de la musique Mercredis 16, 23 et 30 janvier 2013 de 14h00 à 17h30

Plus en détail

outil pédagogie Produire une émission Pourquoi produire une émission en cours de langue? Quel matériel utiliser?

outil pédagogie Produire une émission Pourquoi produire une émission en cours de langue? Quel matériel utiliser? outil pédagogie 5 Produire une émission Grâce à la démocratisation des outils numériques, il devient aujourd hui facile de faire produire aux apprenants des vidéos ou des sons. Pourquoi produire une émission

Plus en détail

Séquence "Ecouter l'information en littérature et société : s approprier le média radio»

Séquence Ecouter l'information en littérature et société : s approprier le média radio» Séquence "Ecouter l'information en littérature et société : s approprier le média radio» Auteurs : Chris Trabys, Sophie Siret, Linda Khirani-Lycée Blaise Pascal brie Comte Robert (77) Niveau : Seconde

Plus en détail

Audio Analyst. Version 0.3

Audio Analyst. Version 0.3 Audio Analyst Version 0.3 Introduction La suite de logiciels Audio Analyst comporte quatre applications : Oscilloscope (1) Spectrum (2) Spectrogram (3) Enveloppe (4) L'objet de cette suite est de fournir

Plus en détail

La Cité des arts. Cours d enseignement artistique

La Cité des arts. Cours d enseignement artistique La Cité des arts Cours d enseignement artistique Qu est-ce que la Cité des arts? La Ville de Viry-Chatillon, dans le cadre de sa politique culturelle, inscrit au cœur de ses priorités l éducation artistique

Plus en détail

L écoute ritualisée au cycle 3

L écoute ritualisée au cycle 3 L écoute ritualisée au cycle 3 Documents d application des programmes La sensibilité, l imagination, la création Éducation artistique école élémentaire Ministère de la Jeunesse, de l Éducation nationale

Plus en détail

STAGE. La place du dessin dans le cours d'arts plastiques SALLE 306

STAGE. La place du dessin dans le cours d'arts plastiques SALLE 306 STAGE La place du dessin dans le cours d'arts plastiques SALLE 306 Les évolutions en arts plastiques - Académie de Nice année 2012/2013 La place du dessin dans le cours d'arts plastiques Les évolutions

Plus en détail

DOMAINE DE LA MATHÉMATIQUE, DE LA SCIENCE ET DE LA TECHNOLOGIE

DOMAINE DE LA MATHÉMATIQUE, DE LA SCIENCE ET DE LA TECHNOLOGIE ÉCOLE SECONDAIRE DE MIRABEL GUIDE DE CHOIX DE COURS 2015-2016 Quatrième secondaire CHOIX D OPTIONS DOMAINE DE LA MATHÉMATIQUE, DE LA SCIENCE ET DE LA TECHNOLOGIE SÉQUENCE CULTURE, SOCIÉTÉ ET TECHNIQUE

Plus en détail

LIVRET DE COMPÉTENCES A L ÉCOLE MATERNELLE

LIVRET DE COMPÉTENCES A L ÉCOLE MATERNELLE NOM : Prénom Date de naissance : LIVRET DE COMPÉTENCES A L ÉCOLE MATERNELLE Classe de toute petite section Année scolaire Nom et adresse de l école Nom des enseignants Classe de petite section Classe de

Plus en détail

Profil du candidat et connaissances techniques à connaître/maîtriser

Profil du candidat et connaissances techniques à connaître/maîtriser Utilisation d algorithmes de deep learning pour la reconnaissance d iris. jonathan.milgram@morpho.com Dans ce cadre, l'unité de recherche et technologie a pour but de maintenir le leadership Au sein de

Plus en détail

Recherche sur les collisions à une dimension : la relation entre la masse et le son

Recherche sur les collisions à une dimension : la relation entre la masse et le son Recherche sur les collisions à une dimension : la relation entre la masse et le son Recherche Le but de cette expérience est de faire une recherche sur la relation entre la masse et le son produit dans

Plus en détail

Initiation et réalisation BD. Création d univers et dialogué. Réalisation d un récit de A à Z. Découpage et storyboard. Mise en couleur numérique

Initiation et réalisation BD. Création d univers et dialogué. Réalisation d un récit de A à Z. Découpage et storyboard. Mise en couleur numérique Initiation bande dessinée La semaine du 21 au 25 avril 2014 De 9h30 à 16h30 Module Scénario BD du 7 et 8 décembre 2013 du 11 et 12 janvier 2013 Tous les mardis du 21 janvier au 8 avril 2014 Module Dessin

Plus en détail

Fanny REBILLARD Master 2 Musique et musicologie Paris Sorbonne 2012-2013 Symphonie pour un homme seul : Prosopopée 1 Pierre Schaeffer, Pierre Henry

Fanny REBILLARD Master 2 Musique et musicologie Paris Sorbonne 2012-2013 Symphonie pour un homme seul : Prosopopée 1 Pierre Schaeffer, Pierre Henry Fanny REBILLARD Master 2 Musique et musicologie Paris Sorbonne 2012-2013 Symphonie pour un homme seul : Prosopopée 1 Pierre Schaeffer, Pierre Henry Cette pièce de Pierre Schaeffer et Pierre Henry est le

Plus en détail

L accompagnement pour piano

L accompagnement pour piano L accompagnement pour piano L'harmonisation polyphonique d'une mélodie, telle que vous l'avez pratiquée jusqu'à présent, demande quelques modifications de conception dès lors que l'on veut la transformer

Plus en détail

Interaction Homme-Machine

Interaction Homme-Machine Interaction Homme-Machine Anastasia.Bezerianos@lri.fr (partie de la présentation basée sur des transparents de M. Beaudouin-Lafon) et N.Rousel Cours 2a : Styles d interaction Anastasia.Bezerianos@lri.fr

Plus en détail

Appréhender les interfaces utilisateur (UI)

Appréhender les interfaces utilisateur (UI) Aides humaines, techniques animalières et mobilité Utiliser l outil informatique Appréhender les interfaces utilisateur (UI) Qu est-ce que le Hardware et le Software? Hardware (matière dure, le matériel)

Plus en détail

Compétences relationnelles

Compétences relationnelles Compétences relationnelles Servir et aider Servir, aider ou assister des personnes, répondre à ses demandes et à des questions, être au service de clients. Capacité à communiquer chaleureusement avec les

Plus en détail

Livret du jeune spectateur

Livret du jeune spectateur Page1 Livret du jeune spectateur NOM : PRENOM : CLASSE : ETABLISSEMENT : PROFESSEUR DATE DE L'OPERA / DU CONCERT : LIEU DE L'OPERA / DU CONCERT : Page2 AVANT D'ALLER AU CONCERT / A L'OPERA : SE PREPARER

Plus en détail

«Le parcours artistique et culturel de l'enfant à l'école en lien avec l'histoire des arts»

«Le parcours artistique et culturel de l'enfant à l'école en lien avec l'histoire des arts» «Le parcours artistique et culturel de l'enfant à l'école en lien avec l'histoire des arts» Objectifs généraux : - favoriser les liens entre la connaissance et la sensibilité - développer le dialogue entre

Plus en détail

PREMIÈRE SECTION : Vue d ensemble du projet ou de la leçon

PREMIÈRE SECTION : Vue d ensemble du projet ou de la leçon PREMIÈRE SECTION : Vue d ensemble du projet ou de la leçon Niveau : 12 e année Matière : Arts visuels et médiatiques (94411) Titre de la leçon : Animons les roches! Thématique : les phénomènes géologiques,

Plus en détail

Application en classe de la progression des apprentissages en musique 1 er cycle du secondaire

Application en classe de la progression des apprentissages en musique 1 er cycle du secondaire Application en classe de la progression des apprentissages en musique 1 er cycle du secondaire Quelques définitions des termes utilisés Nommer : Désigner par un nom. Identifier : Déterminer la nature de

Plus en détail

Peace and Lobe Dossier de presse

Peace and Lobe Dossier de presse Peace and Lobe Dossier de presse Contact : Mélanie Delbart Coordinatrice projet peace and lobe Association ARA, Autour des Rythmes Actuels 03 20 28 06 52 06 13 82 93 83 peaceandlobe@ara-asso.fr www.ara-asso.fr

Plus en détail

L investissement est-il toujours favorable à la croissance et à l emploi?

L investissement est-il toujours favorable à la croissance et à l emploi? L investissement est-il toujours favorable à la croissance et à l emploi? Entrée en matière faisant référence à l actualité. Définitions de l investissement (en italique) qui s appuie sur le contenu d

Plus en détail

série sciences et technologies du management et de la gestion STMG Livret scolaire pour l examen du baccalauréat technologique

série sciences et technologies du management et de la gestion STMG Livret scolaire pour l examen du baccalauréat technologique Livret scolaire pour l examen du baccalauréat technologique arrêté du 6 décembre 2012 série sciences et technologies du management et de la gestion STMG nom de l'élève prénoms date de naissance nom et

Plus en détail

Fiche n 3 Audacity Manipulations. Table des matières

Fiche n 3 Audacity Manipulations. Table des matières Fiche n 3 Audacity Manipulations Table des matières 1-Paramétrage du contrôle du volume...1 1.1-Lancer le programme...1 1.2-Paramétrer les entrées et les sorties audios...1 2-Enregistrement d'une source

Plus en détail

PROGRAMME INTERNATIONAL DE DOCTORAT Muséologie, Médiation, Patrimoine

PROGRAMME INTERNATIONAL DE DOCTORAT Muséologie, Médiation, Patrimoine PROGRAMME INTERNATIONAL DE DOCTORAT Muséologie, Médiation, Patrimoine Doctorat conjoint de l université d Avignon et des Pays de Vaucluse (UAPV) France et de l université du Québec à Montréal (UQAM) Québec,

Plus en détail

Management des processus opérationnels

Management des processus opérationnels Ecole Nationale Supérieure de Management Master Management des organisations Management des processus opérationnels Dr TOUMI Djamila Cours n 4: l approche processus et le management du système d informations

Plus en détail