Sud de Jean-Claude Risset

Oeuvre au programme limitatif du baccalauréat

Option facultative musique - session 2002

 

Nouveaux gestes musicaux

Quelques points de repères historiques

Texte publié in "Les nouveaux gestes de la musique" (sous la direction de Hugues Genevois et Raphaël de Vivo), Éditions Parenthèses, 1999, pp. 19-33

Jean-Claude Risset, Laboratoire de Mécanique et d'Acoustique, CNRS, Marseille, jcrisset@lma.cnrs-mrs.fr

 

Résumé: Ce survol historique énumère, avec des références, nombre de points de repère historiques significatifs en ce qui concerne le geste musical.

 

Introduction

Cette présentation - partielle et partiale - n'est qu'un survol: son propos est d'énumérer un certain nombre de points de repère historiques significatifs en ce qui concerne le geste musical. Ici la notion de geste n'est pas limitée au seul "temps réel": on cite aussi des exemples dans lesquels une forme a été imprimée hors temps réel sur des sons ou des ensembles de sons par des procédés inhabituels (Xenakis, 1954, Dodge, 1965, Decoust, 1977). On prête aussi attention à l'enregistrement et à la télétransmission du geste. Le texte s'appuie sur de nombreuses références.

 

Points de repères

On peut s'interroger sur les commencements, à l'aube de l'humanité: d'abord la musique, ou la danse? le son de la voix, ou le geste?

 

Selon Leroi-Gourhan, l'outil prolonge la main et instrumentalise les gestes. En même temps que la main, l'instrument de musique implique l'outil et la pensée - le corps et l'esprit - en interaction étroite avec le développement technique: les conséquences du geste y sont amplifiées et affinées (Cf. Cadoz, 1994; Laliberté, 1995). L'instrument exploite plusieurs modes de production sonore: souffler, frotter, frapper. L'arc à bouche exploite la résonance. Le didjeridoo est déjà une manière de synthèse croisée, de même que les techniques vocales utilisées au Tibet et au Népal, qui permettent de renforcer par résonance tel ou tel harmonique (ces techniques seront reprises par des vocalistes contemporains tels que Demetrio Strattos, Linda Vickerman, Irène Jarsky, David Hykes ou Franck Royon Le Mée).

 

La musique est souvent aux avant-postes du développement scientifique et technologique. L'orgue marque le rôle croissant de la technologie dans l'instrument de musique: il introduit le premier interrupteur, le premier clavier, et dès le XVe siècle la première synthèse additive (qui ne sera justifiée mathématiquement par Fourier qu'au XIXe siècle). L'orgue est aussi la première machine informationnelle: l'information donnée par le geste du musicien y est découplée de l'énergie sonore.

 

Du XVe au XIXe siècle en Occident, le développement des mécanismes instrumentaux permet de relayer de façon de plus en plus élaborée les actions des gestes, particulièrement du souffle et de la main (développement du piano, qui comporte des milliers de pièces, clèterie des instruments à vent). Certains gestes instrumentaux sont enregistrés sous forme de véritables "programmes" dans des machines à musique perfectionnées - carillons automatisés, boîtes à musique. Ces développements, décrits en détails dans plusieurs traités, notamment Musurgia Universalis du père jésuite Athanase Kircher au XVIIe siècle, stimulent les imaginations. Rabelais, dans son Quart livre, décrit l'enregistrement sous forme de paroles gelées. Dans New Atlantis (1624), Sir Francis Bacon, chancelier d'Angleterre, écrit: "Nous faisons toutes les expériences relatives aux sons et à leur génération. Nous avons plusieurs genres d'harmonie et de mélodies qui vous sont inconnus. Par exemple, nous en avons qui marchent par quart de ton et par intervalles enore plus petits ... Nous produisons à volonté des sons aigus ou faibles, ou graves et lumineux; en un mot, nous les atténuons ou nous les grossissons à notre gré ... Nous avons aussi des instruments pour suppléer à la faiblesse de l'ouïe et en étendre la portée ... Nous avons de plus des échos artificiels et très curieux ...". Le Panharmonicon, machine à musique construite par Maëlzel, l'inventeur du métronome, et pour lequel Beethoven écrit La bataille de Vittoria, inspire à Balzac le personnage de Gambara, musicien avant-gardiste préfigurant Varèse et sa quête de machines pour produire les sons.

 

Dès 1794, le télégraphe de Chappe permet de transmettre en quelques minutes des messages de Lille à Paris: ces messages sont codés à l'aide d'un "sémaphore" dont les "gestes" sont transmis visuellement. En 1866, le pantélégraphe, appareil électromagnétique mis au point par l'abbé Castelli, transmet des milliers de fac-similés de l'écriture de l'expéditeur entre Paris et Lyon. Avant la fin du siècle sera démontrée publiquement à New York une télétransmission jusqu'à Steinway Hall des gestes d'un pianiste agissant sur un clavier dans un studio éloigné. Le piano mécanique (Pianola de Votey, 1897) enregistre sur des rouleaux de papier perforés les touches jouées, et reproduit le mouvement des touches à l'aide d'un mécanisme pneumatique. Des descendants de cet instrument seront utilisés dans la seconde moitié du XXe siècle pour produire des compositions directement sur rouleaux (Conlon Nancarrow, James Tenney).

 

A la fin du XIXe siècle, deux innovations techniques révolutionnent notre rapport au son:

- l'enregistrement (phonographe, Edison 1875). Reproduction du son en l'absence de sa cause; distanciation de l'instrument; possibilité de fixer, de découper, d'analyser le son. Inscription sur l'espace: possibilité d'inverser le sens du temps.

- le son électrique (téléphone, Bell 1876). Traitement des signaux sonores dans le domaine électrique (électrotechnique, puis électronique, aujourd'hui en grande partie numérique) et transmission à distance.

 

1895-1905. Thaddeus Cahill construit le Dynamophone ou Telharmonium, véritable centrale électrique à sons, et fonde une compagnie pour la distribution de musique électrique par téléphone. L'aventure tourne court après le succès initial, mais elle inspirera Busoni et Varèse.

1906. Naissance de l'électronique: Lee de Forest invente la lampe triode, appelée audion, car il visait la production d'ondes sonores par des moyens électriques. La triode permet d'amplifier un signal électrique. L'amplification électrique sera au point dans les années 20, favorisant le développement de la radio.

1911. Henry Cowell introduit avec ses clusters un nouveau mode de jeu au piano (The tides of Manaunaum).

1913. Luigi Russolo publie Arte dei rumori , manifeste des bruitistes et organise en 1914 des concerts d'un orchestre de bruiteurs

1914. Raymond Roussel, dans Locus Solus, imagine la création artificielle de "toutes sortes de voix humaines" par la gravure directe du sillon d'un disque.

1915. Lee de Forest prend le brevet d'un circuit utilisant la triode et lui permettant de produire des oscillations électriques aux audiofréquences. Il construit un instrument électronique rudimentaire.

1916. Edgard Varèse écrit: "Ce que je cherche, ce sont de nouveaux moyens techniques qui puissent se prêter à n'importe quelle expression de la pensée et la soutenir." Et en 1917: "La musique qui veut vibre et vibrer a besoin de nouveaux moyens d'expression, et la science seule peut lui infuser une sève adolescente... Je rêve les instruments obéissant à la pensée, et qui avec l'apport d'une floraison de timbres insoupçonnés se prêtent aux combinaisons qu'il me plaira de leur imposer et se plient à l'exigence de mon rythme intérieur."

1919. Rainer-Maria Rilke décrit son fantasme d'une musique déterminée par les contours des sillons d'un crâne.

1920. Leon Theremin construit son ThereminVox ou Aetherophone, premier instrument électronique nouveau utilisant le principe de l'hétérodyne: les fréquences de vibrations y sont commandées par les gestes de la main au voisinage d'une antenne, sans qu'il y ait contact entre l'instrumentiste et l'instrument. En 1921, Theremin a démontré son invention à Lénine, jouant l'Alouette de Glinka.

1921. Premiers poèmes phonétiques de Raoul Haussmann et Kurt Schwitters (Ursonate, 1932).

1924. Ottorino Respighi fait jouer un enregistrement phonographique d'un rossignol lors de l'exécution de son poème symphonique Les pins de Rome. (Dans les années 80, Knut Victor, Luc Ferrari, François-Bernard Mâche, Michel Redolfi réaliseront des "phonographies").

1926. Jörg Mager présente au Festival de Donaueschingen son Sphaerophon, instrument électronique commandé par claviers et manivelle, pour naviguer sur "l'océan des sons". Les instruments électroniques de Mager seront utilisés pour les représentations des opéras de Wagner à Bayreuth vers 1930.

1928. Maurice Martenot présente l'instrument électronique qui porte son nom, joué à l'aide d'un clavier et aussi d'un ruban qui donne accès au continuum des fréquences. Cet instrument sera utilisé dans des centaines d'oeuvres de Milhaud, Hindemith, Toch, Varèse, Cage, Messiaen, Jolivet, Murail ...

1928. Friedrich Trautwein introduit le Trautonium, synthétiseur fonctionnant sur le principe de la synthèse soustractive. Développé et joué par Oskar Sala sous forme du Mixtur-Trautonium, il comporte des commandes d'un type nouveau pour contrôler hauteur et timbre, et il connaît un certain succès dans les années 30 et au delà (oeuvres de Genzmer, Hindemith, Sala).

1929. Le cinéma parlant inscrit le son sur une piste optique. Par la suite, Norman McLaren écrira directement sur cette piste pour produire le son, préfigurant la synthèse. D'autres expériences tirent parti de l'enregistrement optique du son (Cholpo, en URSS; Arma et Moholy-Nagy au Bauhaus). Dans les années 80, Jacques Dudon développera un instrument de synthèse photosonique.

1929. Construction de l'orgue Hammond, dérivé du Dynamophone de Cahill, et commercialisé en 1935.

1930. Prise de conscience des possibilités spécifiques du microphone et plus généralement de la machine. "Parler très bas près du microphone ,s'appliquer le microphone contre le cou ... que la machine use d'une voix propre, dure, inconnue, fabriquée avc elle. Ne plus adorer les machines ou les employer comme main d'oeuvre. Collaborer avec ..." (Jean Cocteau, Opium, 1930).

1931. Introduction de la guitare électrique par Electro Strings Company, à partir des idées d'Adolph Rickenbacker.

1931. Ionisation, d'Edgard Varèse, ne comporte que des instruments à percussion.

1931: Partch: By the rivers of Babylon. Partch fonde une musique sur un système tempéré à 43 degrés par octave, pour lesquels il construit des instruments originaux, comportant par exemple des claviers à deux dimensions (diamond marimba).

1934. Lors de la première transmission de musique en stéréophonie, plutôt que de diriger son orchestre à Philadelphie, Stokowski préfère tenir la console à Washington.

1934. Varèse écrit Ecuatorial, qui se termine sur le son électronique (2 Theremin ou Martenot) .

1938. John Cage réalise plusieurs oeuvres (Bacchanale, Amores, Sonates et interludes) pour "piano préparé": à partir d'une tablature bien connue, celle du clavier chromatique, les gestes du "pianiste" commandent un ensemble de sons non tempérés.

1939. Cage: Imaginary landscape n° 1 (première oeuvre n'existant que sous forme d'enregistrement).

1941. Georges Jenny introduit l'Ondioline, instrument à clavier qui permet le contrôle du vibrato.

1944-1955. Percy Grainger & Burnett Cross travaillent à la Free Music Machine, fonctionnant à partir d'une notation graphique. Les notations graphiques seront utilisées par John Cage (Aria, Atlas eclipticalis), Earle Browne (Four systems), Sylvano Bussotti (Rara Requiem), André Boucourechliev (Archipels).

1948. Au studio d'essai de la radio à Paris, Pierre Schaeffer invente la musique concrète. L'incident du "sillon fermé" sur le disque isole un fragment sonore de son contexte. (Etude aux chemins de fer).

1948. L'invention du transistor aux Bell Laboratories par Bardeen, Brattain et Schottsky ouvre une nouvelle ère de l'électronique: elle permettra d'extraordinaires progrès dans la miniaturisation des circuits.

1948. Le guitariste Les Paul introduit le travail en multipistes.

1950. A Cologne, naît la musiques électronique, avec Herbert Eimert, Werner Meyer-Eppler, Karel Goyevaerts et Karlheinz Stockhausen. A New York, Otto Luening et Wladimir Ussachevsky produisent la music for tape.

1950. Sept ans avant le lancement du premier satellite, John Pierce publie son article historique sur l'usage des satellites pour la communication.

1951. John Cage présente Imaginary landscape n° 4, musique aléatoire pour 12 radios, 24 exécutants et 1 chef.

1952. John Cage présente 4mn33s pour piano - oeuvre dans laquelle l'instrumentiste reste silencieux et ne joue aucune note.

1952. Dans December 1952, Earle Brown utilise une notation graphique comme support à une musique très libre. (Au début des années 60, Sylvano Bussotti dessinera des partitions graphiques très élaborées).

1952-1956. Hugh Le Caine, avec The Ekectronic Sackbut, et Harry Olson, avec The RCA Synthesizer, pour lequel Milton Babbitt écrit plusieurs oeuvres, préfigurent la synthèse des sons par ordinateur et les synthétiseurs.

1954. Déserts de Varèse (alternance orchestre/bande).

1954. Metastasis de Xenakis (composition pour cordes à partir d'une représentation graphique de surfaces réglées).

1955. Musica a due dimensioni, de Bruno Maderna: dans cette deuxième version, on entend flûte et bande simultanément.

1956. Luis et Bebbe Barron: couplage d'oscillateurs pour le film Planète interdite.

1957. Max Mathews réalise aux Bell Laboratoires le premier enregistrement numérique et la première synthèse numérique des sons (avec Henk McDonald, Newman Guttman et John Pierce).

1957. A Ankara, Bulent Arel compose sa Musique pour quatuor et oscillateur.

1957-... L'amplification électroacoustique multiplie le public et favorise une musique avec des points de repère harmoniques et rythmiques simples. Essor du rock (Paul Anka, Elvis Presley) et des groupes (Bill Haley et ses Comets, Beatles, Rolling Stones), souvent inventifs du point de vue sonore (Pink Floyd, Frank Zappa, Tangerine Dreams, Klaus Schulze ...). La guitare électrique y joue un grand rôle - les gestes du guitariste commandent des sons qui peuvent être très différents de ceux de la guitare acoustique (ou guitare "sèche"), ce qui est spécialement apparent dans l'exploration de la distorsion par Jimi Hendrix. La guitare électrique intervient bien sûr dans le jazz, depuis Charlie Christian, et dans la musique contemporaine (oeuvres de Georges Crumb, Luciano Berio, Hugues Dufourt, Guy Reibel, François Bousch, Pascal Gobin, Jean-Luc Therminarias).

1958. Poème électronique, de Le Corbusier et Varèse, où les sons de Varèse voyagent à travers des dizaines de haut-parleurs au sein du pavillon Philips de l'exposition de Bruxelles, avec une architecture et des projections visuelles conçues par Le Corbusier (avec la collaboration de Xenakis pour l'architecture).

1959. Présentation de nouveaux instruments, les "structures sonores" des frères Baschet (au début avec Jacques Lasry): les "cristaux Baschet" utilisent des "archets de verre".

1960. Kontakte de Stokhausen (piano, percussion et bande), pièce mixte instruments-bande qui aura une vaste descendance avec Luciano Berio, Jean-Etienne Marie, Gilbert Amy, Mario Davidovski, Milton Babbitt, Jean-Claude Risset, Dexter Morrill, Jonathan Harvey, Roger Reynolds ...

1960. La Monte Young: Compositions 1960 ("Draw a straight line and follow it").

1960-1962. Robert Ashley réalise The Fourth of July, avec bande et aussi interprétation en temps réel (1960), puis Public opinion descends upon the demonstrators, qui comporte une interaction avec le public par le contrôle d'équipement électroacoustique. Gordon Mumma écrit Gestures for two pianos.

1961. Mathews écrit Music3, programme de synthèse qui préfigure les programmes Music4, 5, 10, CMusic, CSound, les synthétiseurs modulaires et la programmation objet.

1963. Apparition de la minicassette, introduite par Philips. La cassette donnera lieu dans la brousse africaine à de nouveaux types d'interaction musicale.

1963. Poème symphonique pour 100 métronomes, de György Ligeti.

1964. In C, de Terry Riley. Le courant de la musique "répétitive" sera illustré par Riley, Steve Reich (Violin Phase, Pendulums), Phil Glass, Renaud Gagneux, John Adams.

1964. Echoi, de Lukas Foss, où les gestes instrumentaux sont spécifiés de façon globale et où les instrumentistes interagissent (ainsi le clarinettiste excite les résonances des timbales).

1964. Mixtur de Stockhausen: transformation en temps réel des sons instrumentaux (suivi de Mikrophonie, Hymnen ...).

1965: Synthétiseurs commandés par tension (Robert Moog, Don Buchla, Paolo Ketoff) (Moog: musiques de ballet d'Alwin Nikolais, interprétations de Bach (Switched-on Bach) par Walter Carlos, 1968, Orchestre électrique de Sun Ra; Buchla: Subotnick, The wild bull, 1966; Ketoff: Marinuzzi, Songs for R.P.B. de John Eaton, 1965).

1965. Cage/Vanderbeek/Cunnigham. Variations V, pour danseurs et films agissant sur des cellules photoélectriques et des antennes de Theremin.

1966. Mathews & Rosler présentent leur Graphic System, qui permet de spécifier des enveloppes et des courbes de fréquence par le dessin et qui préfigure l'UPIC de Xenakis.

1966. Groupes de Live Electronic Music: aux Etats-Unis: Sonic Arts Group - puis Sonic Arts Union (Ashley, Lucier Behrman, Mumma); en Italie: Nuova Consonanza (Evangelisti, Macchi, Morricone), Musica Electronica Viva (avec improvisation: Rzewski, Curran). En France, le New Phonic Art (Carlos Alsina, Jean-Pierre Drouet, Vino Globokar, Michel Portal) promeut l'improvisation aux instruments acoustiques.

1966-1969. David Tudor présente Bandonéon, où les signaux acoustiques de l'instrument contrôlent des circuits de transformation sonore, des haut-parleurs en mouvement et aussi des images. Max Neuhaus transforme le son en temps réel en agissant directement au fer à souder sur les circuits électroniques. Neuhaus réalise Public Supply / Telephone access (pièce interactive accessible par téléphone). Dans le cadre du projet "Experiments in Art and Technology", le peintre Robert Rauschenberg réalise avec l'ingénieur Cecil Coker un panneau dans lequel des carrés s'illuminent au rythme de la voix des spectateurs. Pauline Oliveros fait entendre les bruits cardiaques amplifiés des interprètes dans Valentine, pour 4 joueurs de carte. Nam June Paik réalise pour Charlotte Moorman des sculptures musicales violoncelle-vidéo.

1967. Publication de New sounds for woodwinds de Bartoluzzi. Cet ouvrage est emblématique de l'extension des modes de jeu (multiphoniques, whistle tones, slap, chant harmonique ...) accomplie par des instrumentistes et des vocalistes tels que P.Y Artaud, C. Berberian, S. Dempster, J.P. Drouet, R. Dick, R. Fabbriciani, S. Gazelloni, V. Globokar, H. Hölliger, I. Jarsky, D. Kientzy, M. Kimura, J. Nyegesy, Alexandre Ozounoff, M. Portal, F. Royon Le Mée, H. Sollberger, D. Strattos, L. Vickerman, J. Villa-Rojo. Parmi les précurseurs de cette démarche, il faut noter Richard Strauss, qui a demandé au corniste de chanter dans son instrument (La vie d'un héros, 1899); Cowell et ses clusters (1911); Varèse, qui dans Densité 21,5 (1936) prescrit au flûtiste de frapper les clés; Jolivet, qui utilise le flatterzünge dans ses Incantations pour flûte seule (1936).

1967. La partition partiellement graphique d'Archipel I d'André Boucourechliev ressemble à la carte d'un archipel suggérant divers parcours d'une île à l'autre.

1967-1970. Usage des boucles de bande magnétique en direct (Terry Riley, Luc Ferrari, Fernand Vandenbogaerde).

1968. Kagel: Acustica: contrôle particulier d'instruments acoustiques nouveaux. Dans Exotica (1971), les instrumentistes utilisent des instruments dont ils n'ont pas appris à jouer. Dans Zwei-Mann Orchester (1973), deux "hommes-orchestre" contrôlent par des pédales, cordes et manivelles un grand nombre d'appareils de production sonore. D'autres compositeurs développent diverses formes de théâtre musical, parmi lesquels John Cage, Vinko Globokar, Nam June Paik, Stuart Smith, Geroges Aperghis.

1969. Chowning simule par programme d'ordinateur des mouvements rapides des sources sonores - il réalise aussi un dispositif analogique où cette spatialisation est commandée par un manche à balai (joystick).

1969. Système hybride de synthèse GROOVE, avec contrôles gestuels en temps réel (Mathews & Moore, 1970). Mathews développe sur ce système le concept du "conductor program", dans lequel le musicien contrôle au moment du temps réel non pas tous les paramètres du son, mais - à la façon d'un chef d'orchestre - seulement certains aspects très significatifs, comme le tempo et l'équilibre des voix.

1970. Apparition des grands réseaux informatiques, financés initialement par la défense américaine (projet ARPA) puis par la recherche scientifique (physique nucléaire et particules élémentaires), et qui aboutiront à l'explosion dans les années 90 d'Internet et du World Wide Web.

1970. Charles Dodge réalise Earth Magnetic Field: des courbes de variation du champ magnétique terrestre déterminent les variations de fréquence du son de synthèse.

1970. Spatialisation par un grand nombre de haut-parleurs (Exposition universelle d'Osaka): Stockhausen, Mumma, Tudor.

1970. En Allemagne, Johannes Fritsch, Peter Eötvos, Rolf Gelhaar, David Johnson, Mesias Maïguashca créent l'ensemble Feedback, dédié à la musique électronique live. Gelhaar réalise des sons qui changent d'octave à l'écoute suivant la position de l'auditeur.

1971-1975. Commande de musique par l'intermédiaire d'ondes cérébrales: Manford Eaton, David Rosenboom, Alvin Lucier, Richard Teitelbaum, cortical art de Roger Lafosse et Pierre Henry. Le Professeur Henri Gastaut, pionnier de l'électroencéphalographie, dénonce la "musique en direct du cerveau" comme une mystification.

1972. A l'Université d'Illinois, Salvatore Martirano développe le SAL-MAR, synthétiseur qui réagit de façon surprenante aux commandes gestuelles, et qu'il considère comme une oeuvre autant que comme un instrument.

1972. Spatialisation et transformations en temps réel au Studio Heinrich Ströbel de Fribourg, dirigé par Hans-Peter Haller (Boulez: Explosante Fixe, 1972-1993).

1972. Mathews: violon électronique. Ce violon peut aussi fonctionner comme capteur des gestes d'un violoniste pour commander d'autres sons. Musiques de Michael Sahl, Vinko Globokar, Richard Boulanger, Janos Nyegesy, Laurie Anderson.

1973. Diffusion de musique électroacoustique par des "orchestres de haut-parleurs": GMEBaphone (Bourges), Acousmonium (GRM Paris), et plus tard Beast (Birmingham).

1974. Avec Piano Control, Thomas Kessler confie au pianiste le contrôle du synthétiseur VCS-3 qui modifie en temps réel le son du piano. Dans Two butterflies, Morton Subotnick utilise un violon avec sourdine pour commander un dispositif électroacoustique.

1974. Jon Appleton et Sydney Alonso réalisent le Synclavier, premier synthétiseur numérique, dans lequel la commande fait appel à un clavier mais aussi à une roue et à des touches de fonction, qui permettent de déclencher et modifier des séquences. Les méthodes de contrôle tirent parti des expériences de Mathews et Moore sur Groove.

1974. Dans un ballet de Mimi Garrard sur la musique d'Emmanuel Ghent (Phosphones, réalisée sur GROOVE), Jimmy Seawright réalise une synchronisation spectaculaire des éclairages et de la musique.

1975-1980: live computer music itinérante: Ed Kobrin, Jon Appleton , Don Buchla, Bill Buxton.

1975 environ: Ensemble d'Instruments Electroniques de l'Itinéraire (Saturne, de Dufourt) / Ensemble GRM-Plus, puis TM+.

1976. Au GME de Marseille, Georges Boeuf et Michel Redolfi réalisent Whoops pour "Homoparleurs" - haut-parleurs portés par des hommes.

1976-...: capteurs gestuels rétroactifs commandant des synthèses par simulation de modèles physiques: Claude Cadoz, Annie Luciani, Jean-Loup Florens, ACROE Grenoble. Ces recherches, préfigurant les réalités virtuelles, ont récemment abouti à des utilisations musicales.

1977: Dans Interphone, de Michel Decoust, les gestes vocaux sont imprimés sur le son. (Exemples ultérieurs d'hybridation: Risset, Sud, 1985; Levinas, Préfixes, 1991).

1977. Première version de l'UPIC (machine à dessiner la musique conçue par Xenakis): Mycenae Alpha de Xenakis (1978), et oeuvres de François-Bernard Mâche, Jean-Claude Eloy, Patrice Bernard, Joji Yuasa.

1977. Dans Laboratorium, Vinko Globokar explore de nouveaux usages des instruments: modification en retirant certaines parties, couplages d'instruments ou d'un instrument et de la voix, musique provoquée par des gestes ...

1977. Apparition des premiers mini-ordinateurs personnels, avec des périphériques sonores: Apple II, Atari, Commodore.

1978. A l'IRCAM sont réalisées les premières pièces interactives avec la machine 4X conçue par Peppino Di Giugno (Wellenspiele de Balz Trumpy, 1978; Répons de Boulez, 1981-1989).

1978. Solo, de Joel Chadabe, est sans doute la première oeuvre composée interactivement: à l'aide de deux antennes Theremin connectée au synthétiseur numérique Synclavier, Chadabe y contrôle par des gestes certains paramètres compositionnels.

1980-... Mathews introduit le contrôle d'instruments "intelligents" - qui ont une connaissance de la musique à jouer - par une "baguette radio" (Sequential Drum/ Radio Baton) (Mathews, 1980, Mathews et Boie, 1987). Ce dispositif de capture de gestes, construit et programmé par Mathews, donnera lieu à des oeuvres de Jon Appleton, Richard Boulanger, Andy Schloss, David Jaffe ...

1981. Avec Sonic Waters, diffusé dans le Pacifique, Michel Redolfi inaugure une série de musiques subaquatiques, que les auditeurs ne peuvent entendre que sous l'eau.

1982-... Barry Vercoe développe le synthetic performer, programme capable de suivre le jeu d'un instrumentiste et de réagir suivant les instructions d'une partition pour ajouter une partie produite en temps réel par un processeur audionumérique (Vercoe/Beauregard, 1983; Manoury, Jupiter, 1984). Roger Dannenberg travaille suivant la même ligne. A la fin des années 80, Robert Rowe développera ce procédé en écrivant des programmes (Cypher) qui analysent le contenu musical et qui prennent des décisions compositionnelles.

1983. Apparition de MIDI (Musical Instrument Digital Interface), norme de description numérique des évènements musicaux, qui permet d'associer capteurs de gestes, synthétiseurs, échantillonneurs, expandeurs, ordinateurs de marques diverses. Ce standard, fruit d'une entente entre les compagnies Sequential Circuits, Roland, Yamaha, Korg, Kawai, donnera lieu à une expansion considérable de la musique électronique "live", particulièrement de l'usage des claviers numériques. On notera les réalisations de Jean-Charles François, Xavier Chabot, Georges Bloch, (tous trois à l'Université de San Diego), Nicholas Collins, Joel Ryan, Atau Tanaka, Chris Brown, George Lewis ...

1983. Le DX7, synthétiseur numérique de Yamaha utilisant la synthèse par modulation de fréquence et le savoir-faire développé par John Chowning dans la synthèse des timbres, connaît un succès populaire considérable (à la surprise du constructeur).

1983. Apparition du disque compact (qui, combiné au juke-box, donnera lieu plus tard au Karaoké).

1984. Rainbow family, de George Lewis, pièce interactive dans laquelle un micro-ordinateur "écoute" l'instrumentiste et improvise.

1984- ... Usage des échantillonneurs dans les musiques mixtes: diverses oeuvres de François-Bernard Mâche; Steve Reich: Different trains; Georges Boeuf: Nocturne.

1984. Michael Waiswiz présente The Hands, un capteur de gestes pour la musique, développé à l'Institut STEIM d'Amsterdam, qui se consacre à la musique interactive et aux installations.

1986. Symphonie, dispositif réalisé par le GRAME à Lyon, permet de réaliser et mémoriser une diffusion spatiale électroacoustique.

1989-1990. Miller Puckette publie MAX, environnement graphique modulaire pour la programmation d'interactions temps réeel, en particulier le suivi de partitions (pièces de Philippe Manoury, Cort Lippe, Zack Settel, Mari Kimura...).

1989. Jean-Claude Risset et Scott Van Duyne mettent en oeuvre au M.I.T. l'interaction ordinateur-piano acoustique sur le Yamaha Disklavier, piano acoustique à entrée et sortie MIDI.

1989. Avec la collaboration de Joe Chung, Tod Machover écrit des musiques pour Hyperinstruments, extensions numériques de gestes ou d'instruments comme le violoncelle (Begin again again, pour Yo Yo Ma). Serge de Laubier développera quant à lui des "métainstruments", puis des "MIDI Formers", qui "détournent" MIDI pour des applications sonores proches de la musique concrète.

1990-1991. Don Buchla produit le Thunder, puis le Lightning, deux capteurs de gestes utilisés dans des oeuvres de Warren Burt, Chris Chafe, Dexter Morrill, Bruno Spoerri.

1992. Le VL-1 de Yamaha est le premier synthétiseur commercial dont les commandes peuvent s'exercer sur des paramètres ayant une signification physique. En revanche le synthétiseur DX7 n'est plus disponible: il est remplacé par d'autres modèles au fonctionnement hybride.

1992. Concert transatlantique aux MANCA: une liaison satellite transmettait les commandes MIDI entre le Musée d'Art Moderne de Nice et l'Electronic Café de Los Angeles, et le pianiste jouant sur un Disklavier à Nice commandait du même coup un autre Disklavier à Los Angeles - ou vice-versa.

1993. A l'International Computer Music Conference, à Tokyo, Morton Subotnick dirige un orchestre synthétique.

1994. Jean-Marc Jot met au point un programme "spatialisateur" (IRCAM & Espaces nouveaux), qui calcule les modifications à apporter au son pour sa spatialisation par un ensemble de haut-parleurs.

1995- ... Plusieurs compositions font appel au World Wide Web. Divers centres proposent l'utilisation à distance de leurs ressources de traitement numérique des sons (en Europe, University of York, Phonos, Barcelone, IRCAM).

1996. Apparition d'enregistreurs de CD-ROM/CD-audio pour le grand public.

11996. Garnet Willis construit au Canada le Clusterflux, instrument à cordes couplées excité électromagnétiquement et développant par lui-même un comportement chaotique imprévisible.

 

Remarques

Le geste de l'instrumentiste n'est pas un geste spontané, mais un geste expert, longuement travaillé. Une vaste enquête récente effectuée en Angleterre sous la direction de John Sloboda, indique que même un instrumentiste "surdoué" doit travailler des milliers d'heures pour maîtriser un instrument à un niveau professionnel. Il en va de même pour un instrument électronique sensible comme le Martenot - dont l'apprentissage se fait plus vite pour qui connaît le clavier chromatique - et plus encore pour le Theremin: peu d'instrumentistes maîtrisent cet instrument (il faut signaler l'extraordinaire Clara Rockmore, Youssef Yancy dans le domaine du jazz, et la jeune artiste russe Lydia Kavina).

 

La disponibilité "d'accès" gestuels tout-à-fait différents des accès instrumentaux risque de rester lettre morte, dans la mesure où il est improbable que des interprètes réalisent l'investissement considérable que représente l'apprentissage d'un instrument complètement nouveau s'ils n'ont pas l'assurance que cet instrument va durer et qu'un répertoire va se développer pour lui. Mais on peut détourner, "dévoyer" l'expertise instrumentale: il y vingt cinq ans, John Chowning proposait déjà de convertir le vibrato du violoniste en oscillation spatiale.

 

D'autre part le geste de commande peut faire l'objet d'une construction, d'une élaboration, d'une notation. Le système GROOVE introduit une algèbre de fonctions de commande: certaines fonctions prédéfinies peuvent être combinées avec d'autres déterminées par le geste. Max Mathews a démontré le contrôle par le geste d'instruments "intelligents", dans lesquels on peut préalablement stocker en mémoire les paramètres imposés par la partition, par exemple la suite de hauteurs prescrites: la commande gestuelle peut alors se limiter à renforcer l'expressivité, son assignation à tel ou tel paramètres pouvant être programmée à loisir. L'ACROE prend en considération l'espace gestuel, mis en correspondance avec l'espace de timbres par des capteurs et des modèles physiques. Le travail sur le geste et son "transcodage" pourrrait connaître des développements insoupçonnés.

 

Références

Alonso, S., Appleton, J., & Jones, C. 1976. A special-purpose digital system for musical instruction, composition, and performance. Computers and the Humanities 10: 209-215.

Analyse en musique électroacooustique (en français et en anglais, avec un disque compact d'exemples sonores). Actes de l'Académie Internationale de Musique Electroaoustique de Bourges, Mnémosyne, Bourges 1997

Appleton, J. Live and in concert: composer/performer views of real-time performance systems. Computer Music Journal 8 n° 1 (1984), 48-51.

Appleton, J., & Perera, R.C., ed. The development and practice of electronic music. Prentice Hall, Englewood Cliffs, N.J. 1975. (Cf. en particulier le chapitre de Gordon Mumma, Live-electronic music).

Arfib, D., Dudon, J., Sanchez, P. "Waveloom", logicile d'aide à la création de disques photosoniques. Comptes Rendus des Journées d'Informatique Musicales 1996, Cahiers du GREYC, Université de Caen, 313-319.

Bacon, F. New Atlantis (1624). Réédition: Croft Classics, Arlington Heights, Ill., 1989.

Balzac, H. de. Gambara (1837). (Réédition: classiques Garnier, Paris).

Baines, A., ed. Musical instruments through the ages. Penguin Books, 1969.

Bartoluzzi, B. New sounds for woodwinds. Oxford University Press, London 1967.

Battier, M. Une nouvelle géométrie du son - le paradoxe de la lutherie électronique. Les cahiers de l'IRCAM, n° 7: Instruments, 1995, 43-56.

Bloch, G., Dannenberg, R. B. 1985. Real-time Computer Accompaniment of Keyboard Performances. Proceedings of the 1985 International Computer Music Conference. San Francisco: International Computer Music Association.

Bolzinger, S. DKOMPOSE: a package for interactive composition in the MAX environment, adapted to the acoustic MIDI Disklavier piano. Proceedings of the San Jose International Computer Music Conference, ICMA, San Francisco, 1992, 162-165.

Bosseur, J.Y. Vocabulaire de la musique contemporaine. Minerve, Paris 1992.

Bosseur, D. & J.Y. Révolutions musicales. Minerve, Paris 1986.

Boulanger, R. 1990. Conducting the MIDI orchestra, Part I: Interviews with Max Mathews, Barry Vercoe, and Roger Dannenberg. Computer Music Journal 16(4): 104-111.

Buxton, W., Reeves, W., Fedorkow, G., Smith, K.C., & Baecker, R. A microcomputer-based conducting system. Computer Music Journal 4 n° 1 (1980), 8-21.

Cadoz, C. Les réalités virtuelles. Collection Dominos, Flammarion, Paris, 1994.

Cadoz, C. Le geste, canal de communication homme-machine: la communication "instrumentale". Technique et science informatique, numéro spécial Interface homme-machine, 13 n° 1,1994, 31-61.

Cadoz, C., Lisowski L., & Florens, J.L. A modular feedback keyboard design. Computer Music Journal 14 n° 2, 1990, 47-51.

Cadoz, C., Luciani, A., & Florens, J.L. Responsive input devices and sound synthesis by simmulation of instrumental mechanisms: the Cordis system. Computer Music Journal 8 n° 3 1984, 60-73.

Cavaliere, S., Papadia, L., & Parascandolo, P. From computer music to the theater: the realization of a theatrical automaton. Computer Music Journal 6 n° 4, 1982, 22-35.

Chabot, X. Gesture interfaces and a software tool-kit for performance with electronics. Computer Music Journal 14 n° 2, 1990, 15-27.

Chadabe, J. Interactive Composing: an overview. Computer Music Journal 8 n° 1, 1984, 34-46.

Chadabe, J. 1997. Electric sound - the past and promise of electronic music. Prentice Hall, Englewood Cliffs, N.J.

Chion, M. Musiques, médias et technologie. Flammarion (Coll. Dominos), Paris 1994.

Computer Music Journal 15 N° 1, 1991. Special issue: Dream machines for computer music: in honor of John R. Pierce's 80th birthday.

Contemporary Music Review (Londres). Numéro spécial "Live electronics", sous la direction de Marc Battier, à paraître en 1997.

Cope, D. New directions in music. W.C. Brown, Albuquerque, 1989.

Dannenberg, R. B. 1984. An On-Line Algorithm for Real-Time Accompaniment. Proceedings of the 1984 International Computer Music Conference. San Francisco: International Computer Music Association, 193-198.

Darter, T., Armbruster, G. The art of electronic music. Quill/Keyboard, New York 1985.

De Laubier, S. MIDI Formers. Computer Music Journal 21 n° 1, 1997, 39-40.

Dudon, J., Arfib, D. Synthèse photosonique. Actes du Premier Congrès Français d'Acoustique, Editions de Physique, Les Ulis, 1990, C2, 845-848.

Fatus, C. Vocabulaire des nouvelles technologies musicales. Minerve, Paris 1994.

Friberg, A., Fryden, L., Bodin, L.G., & Sundberg, J. Performance rules for computer-controlled contemporary keyboard music. Computer Music Journal 15 n° 2 (1991) 49-55.

François, J.C. Percussion et musique contemporaine. Klincksieck, Paris 1991.

Gabrielsson, A. Interplay between analysis and synthesis in studies of musical performance and music experience. Music Perception 3, 1985, 59-86.

Globokar, V. L'interprète créateur. In La musique en projet, Gallimard-IRCAM, Paris 1975, 80-94.

Guillemain, P., & Kronland-Martinet, R. Characterization of acoustic signals through continuous linear time-frequency representations. Proceedings of the IEEE, 84, 561-585, 1996.

Hitchcock, H.W. Music in the United States: a historical introduction. Prentice Hall, Englewood Cliffs, N.J. 1969.

Holmes, T.B. Electronic and experimental music. Scribner's, New York 1985.

Kagel, M. Tam-tam. C. Bourgois, Paris 1983.

Knapp, R.B., & Lusted, H.S. A bioelectric controller for computer music applications. Computer Music Journal, 14 n° 1, 1990, 42-47.

Kregeld, V. The hand in the webb: an interview with Michel Waisvisz. Computer Music Journal, 14 n° 2, 1990, 28-33.

Laliberté, M. Les paradoxes des instruments de musique: archétypes instrumentaux et nouvelles technologies. L'Aventure humaine 3/4, 1995, pp. 11-22.

Lawson, J. & Mathews, M.V. Computer program to control a digital real-time synthesizer. Computer Music Journal 1 n° 4 , 1977, 16-21.

Leroi-Gourhan, A. Le geste et la parole. Albin Michel, Paris 1964.

Logeman, G.W. Report on the last STEIM Symposium on interactive composing in live electronic music. Computer Music Journal 11 n° 3 (1987), 44-47.

Lohner, H. The UPIC system: a user's report. Computer Music Journal 10 n° 4 , 1986, 42-49.

Loy, G. Musicians make a standard: the MIDI phenomenon. Computer Music Journal 9 n° 4 , 1985, 8-26.

Machover, T., & Chung, J., 1989. Hyperinstruments: musically intelligent and interactive performance and creativity systems. Proceedings of the 1989 International Computer Music Conference. San Francisco: International Computer Music Association, pp. 1986-1990.

Mathews, M.V. The technology of computer music. M.I.T. Press, Cambridge, Mass., 1969.

Mathews, M.V. 1989. The conductor program and Mechanical baton. In Mathews, M.V., and Pierce, J.R., 1989, pp. 263-289.

Mathews, M.V. 1991. The radio baton and conductor program, or: Pitch, the most important and least expressive part of music. Computer Music Journal 14 n° 4 (1991), 37-46.

Mathews, M.V. 1997. Exécution en direct à l'âge de l'ordinateur. In La musique depuis 1945 - matériau, esthétique et perception (sous la directin de H. Dufourt et J.M. Fauquet), Mardaga, Belgique, 1997, 285-297.

Mathews, M.V. & Abbott, C. The sequential drum. Computer Music Journal 4 n° 4 (1980) 45-59.

Mathews, M.V. & Kohut, J. Electronic simulation of violin resonances. Journal of the Acoustical Society of America 53 (1973), 1620-1626.

Mathews, M.V., & Moore, F.R. 1970. GROOVE - a program to compose, store, and edit functions of time. Communications of the Association for Computing Machinery 13 (12) 715-721.

Mathews, M.V., & Pierce, J.R., ed. Current Directions in Computer Music Research (with a compact disk of sound examples). M.I.T. Press, Cambridge, Mass., 1989.

Morrill, D. Loudspeakers and performers: some problems and proposals. Computer Music Journal 5 n° 4 (1981), 25-29.

Mussat, M.C. Trajectoires de la musique au XXe siècle. Klincksieck, Paris 1995.

Nuova Atlantida - Il continento della musica elettronica 1900-1986 (avec deux cassettes d'oeuvres). Biennale di Venezia, 1986.

Opcode, Inc. 1990. MAX Documentation. Palo Alto, California: Opcode Inc.

Palmer, C. Music performance. Annual Review of Psychology 48 (1997), 115-138.

Partch, H. Genesis of a music. Da Capo Press, 1949/1974.

Pierce, J.R. Le son musical (avec exemples sonores). Pour la Science/Belin, Paris, 1984.

Pressing, J. Interactive issues in interactive performance systems. Computer Music Journal 14 n° 1 (1990), 12-25.

Puckette, M. 1988. The Patcher. In Proceedings of the International Computer Music Conference. San Francisco: Computer Music Association, pp. 420-425.

Puckette, M. 1991. Combining Event and Signal Processing in the MAX Graphical Programming Environment. Computer Music Journal 15(3): 68-77.

Read G. Contemporary instrumental techniques. Schirmer Books, New York 1976.

Rilke, R.M. Bruit originaire (1919). Traduction française: in Lettres à un jeune poète, Livre de Poche n° 6904 (1989), 121-128.

Risset, J.C. & Van Duyne, S.C. Real-time performance interaction with a computer-controlled acoustic piano (avec 10 minutes d'exemples sonores sur disque compact joint au journal). Computer Music Journal, 20 n° 1, 62-75, 1996.

Rubine, D., & McAvinney, P. Programmable finger-tracking instrument controllers. Computer Music Journal, 14 n° 1, 1990, 26-41.

Roads, C. The second STEIM Symposium on interactive composition in live electronic music. Computer Music Journal 10 n° 2 (1986), 44-50.

Roads, C. The computer music tutorial. M.I.T. Press, 1996.

Rosenboom, D. The performing brain. Computer Music Journal, 14 n° 1, 1990, 48-66.

Rowe, R. 1992. Interactive Music Systems - Machine Listening and Composing. M.I.T. Press. En français: Systèmes musicaux interactifs (traduction française d'Arnaud Piat). International Thomson Publishing France, Paris, 1996.

Sachs, C. The history of musical instruments. Norton, New York 1940.

Schaeffner, A. Origine des instruments de musique. Paris, 1943.

Sloboda, J.A., Davidson, J.W., Howe, M.J.A., & Moore, D.G. The role of practice in the development of performing musicians. British Journal of Psychology, 1996.

Tiffon, V. Les musiques mixtes. Thèse de l'Université de Provence, 1994.

Varèse, E. Ecrits (textes réunis par Louise Hirbour). C. Bourgois, Paris 1983.

Vercoe, B. 1984. The synthetic performer in the context of live performance. Proceedings of the 1984 International Computer Music Conference. San Francisco: International Computer Music Association, 275-278.

Von der Weid, J.N. La musique du XXe siècle. Hachette, Paris 1992/1997.

Waiswisz, M. The HANDS, a Set of remote MIDI-controllers. Proceedings of the 1985 International Computer Music Conference, 313-318. San Francisco: International Computer Music Association.

Wessel, D.L. Instruments that learn, refined controllers, and source model loudspeakers. Computer Music Journal, 15 n° 4, 1991, 82-86.

Xenakis, I. Formalized music. Indiana University Press, Bloomington, 1971.

Ystad S., Guillemain, P., & Kronland-Martinet, R. Estimation of parameters corresponding to a propagative synthesis model through the analysis of real sounds. Proceedings of the International Computer Music Conference, ICMA, San Francisco 1996.

 

Retour

Page d'accueil