-
-
Notifications
You must be signed in to change notification settings - Fork 1
Objectifs de spatialisation
Une recherche sur la manière de lier et d'associer le rythme et l'espace des événements sonores avec une spatialisation dynamique, basée sur des événements finis
1. Spatialisation continue basée sur des entrées & (vs) Spatialisation dynamique basée sur des couches et des événements
Nous proposons ici une distinction entre la spatialisation continue basée sur des entrées et la spatialisation finie basée sur des événements. Contrairement à la plupart des outils de spatialisation avec une entrée à partir d'un nombre fixe de pistes, l'outil est basé sur la spatialisation par couches et par événements, ce qui permet de contrôler la temporalité (rythme, densité, durée et amplitude) des événements sonores spatialisés (comme vous pouvez le voir dans la représentation graphique d'une séquence).
-
Par spatialisation basée sur des entrées continues, nous entendons que l'utilisateur sélectionne la position ou la trajectoire de chaque entrée continue (comme dans la plupart des plugins de spatialisation tels que Ircam Spat). D'après mon expérience, cela tend à créer une spatialisation plus simple et plus claire.
-
Par spatialisation basée sur des événements finis, nous entendons que l'utilisateur sélectionne (parmi une bibliothèque prédéfinie) la position et la trajectoire de plusieurs couches d'événements avec des temps de début et des durées différents (comme dans certains systèmes de création permettant de contrôler à la fois le temps et l'espace des événements, tels que Live 4 Life ou Sound Particles). D'après mon expérience, cela tend à créer une spatialisation plus complexe et plus confuse.
L'absence de contrôle direct et facilement modifiable des paramètres spatiaux, combinée à une perception symétrique et floue de l'espace, font que l'espace n'est généralement pas considéré comme une dimension à part entière dans la composition, d'autant plus que notre perception spatiale auditive est davantage un mécanisme de comparaison qu'un outil d'analyse. En l'absence d'outils simples et flexibles pour expérimenter les perceptions spatiales et d'un vocabulaire spatial commun et détaillé à différentes échelles, les compositeurs travaillent généralement sur des notions et des registres globaux de l'espace et de leurs contraires (avant/arrière, bas/haut, proche/lointain, statique/mouvement, emplacements précis/sensation enveloppante, intérieur/extérieur).
Afin de mettre en évidence l'aspect spatial, les éléments sonores restent généralement simples, ou d'autres paramètres ont tendance à être ralentis, comme l'écrit Stockhausen dans les commentaires de la partition d'Oktophonie :
« Les mouvements simultanés - en 8 couches - de la musique électronique de Invasion - Explosion with Farewell démontrent comment - grâce à l'Octophonie - une nouvelle dimension de la composition de l'espace musical s'est ouverte. Pour pouvoir entendre de tels mouvements - surtout simultanément - le rythme musical doit être drastiquement ralenti ; les changements de hauteur doivent avoir lieu moins souvent et seulement en petits pas ou avec des glissandi, afin qu'ils puissent être suivis ; la composition de la dynamique sert l'audibilité des couches individuelles - c'est-à-dire qu'elle dépend des timbres des couches et de la vitesse de leurs mouvements ; la composition du timbre sert principalement à l'élucidation de ces mouvements » [1].
Bien que la composition spatiale puisse impliquer de geler ou de ralentir d'autres paramètres sonores, en particulier les rythmes, pour mettre en avant la perception de l'espace, la spatialisation rythmique, axée sur des séquences de paramètres rapides, dynamiques et cycliques, doit être davantage étudiée. En la combinant ou en l'alternant avec des textures spatiales, nous pouvons révéler et créer des polyrythmies plus complexes qui sont plus faciles à localiser dans l'espace grâce à des transitions d'attaque nettes [2].
-
Un paradigme basé sur les objets (le son est envoyé à une position 3D virtuelle) implique que la spatialisation peut être facilement reproduite dans des configurations spatiales différentes. D'après mon expérience, l'algorithme de spatialisation tend à faire oublier la présence de haut-parleurs et à être plus exigeant en termes de CPU, ce qui a pour effet de réduire le nombre maximum d'événements spatialisés en temps réel.
-
Un paradigme basé sur les canaux (son ou effet envoyé à une position physique de haut-parleur) implique que la spatialisation ne peut pas être reproduite exactement de la même manière sur différentes configurations de haut-parleurs. D'après mon expérience, l'algorithme spatial simple tend à renforcer la présence des haut-parleurs et à utiliser peu le processeur, ce qui a pour effet d'augmenter le nombre maximum d'événements spatialisés en temps réel.
Malgré la tendance au paradigme basé sur l'objet pour des raisons de simplicité, de standardisation et de reproduction dans chaque espace indépendamment de la configuration des haut-parleurs, le mélange des paradigmes basés sur le canal et sur l'objet à utiliser pour chaque événement sonore permet de tirer profit des forces de l'approche basée sur le canal. Envoyer un son directement à un haut-parleur spécifique peut avoir beaucoup plus d'impact (et au moins un effet différent) que de l'envoyer exactement aux mêmes coordonnées du haut-parleur par le biais d'un algorithme VBAP ou ambisonique. Cependant, cela a également pour effet que les séquences intégrant un système d'effet basé sur les canaux ou un système multicanal sont différentes en fonction du nombre de haut-parleurs disponibles et ne peuvent pas être reproduites de la même manière sur différentes configurations de haut-parleurs.
Cette volonté de mélanger ces deux paradigmes, et de s'éloigner de la standardisation vers le modèle orienté objet, est aussi une manière de questionner la norme, comme le dit Feda Werdak, créateur d'installations architecturales plastiques dans l'espace public : « Je déjoue la norme, je la provoque, parce que je pense que la norme inhibe les choses. « Surnormer » à un moment donné, cela aseptise les choses, cela industrialise, cela conventionne. Et je pense que le bon sens doit primer sur la norme. »
Comme je l'ai écrit dans un article de l'International Music Conference en 2018, ainsi que dans ma thèse de doctorat, de la même façon que Pierre Schaeffer oppose le terme de musique abstraite, qui nécessite le concours d’une écriture sur partition et des interprètes pour donner à entendre l’œuvre, à celui de musique concrète, qui implique un travail direct sur la matière sonore, je distingue deux grandes catégories au sein des techniques de spatialisation sonore : les techniques de spatialisation abstraites et concrètes.
- Dans la spatialisation abstraite, la prémisse de départ est la trajectoire ou la position spatiale, qui définit indirectement les différences de phase, d’amplitude et spectrales de manière coordonnée qu’il faut appliquer sur le son dans chacun des haut-parleurs pour percevoir une trajectoire ou direction précise.
- Dans la spatialisation concrète, on part du matériau sonore, en agissant directement sur ses paramètres internes (temporels, amplitude, fréquence, phase), sans aucune définition préalable d’une trajectoire précise, ce qui aboutit généralement à créer un espace immersif avec des formes spatiales larges et diffuses.
La spatialisation abstraite, externe au son, nécessite une certaine conceptualisation de figures géométriques dans l’espace ou une spatialisation pointilliste, discrète au sein d’un modèle planétaire de haut-parleurs. Dans cette approche descendante, l’espace s’impose sur ses objets, auxquels sont assignés des paramètres spatiaux externes.
John Chowning a employé cette méthode pour faire percevoir des espaces totalement différents, particulièrement dans deux de ses œuvres. Alors que, dans Turenas, il utilise quelques trajectoires claires et bien définies avec des courbes de Lissajous [3], il superpose, dans Stria, de multiples couches sonores, avec des positions statiques tournant légèrement à chaque nouvel événement, pour créer une riche polyphonie spatiale [4]. Suivant les principes de regroupement de la Gestalt [5], que Bregman (1994) a appliqués à une scène sonore, différents sons peuvent être perçus comme distincts ou provenant d’une même source et fusionner spatialement en un objet plus grand, si leurs trajectoires sont corrélées (symétrie) [6] ou si les hauteurs se situent dans une même bande de fréquence - jusqu’à environ une tierce mineure - (similarité) [7].
La spatialisation abstraite, qui se réfère à une trajectoire spatiale spécifique ou à une position précise appliquée à un son, est présente dans presque tous les outils de spatialisation, peut-être parce qu'elle est directe, la plus contrôlable et la manière la plus facile de concevoir abstraitement une position dans l'espace. Il existe de multiples façons de créer des trajectoires. Elles peuvent être dessinées ou générées algorithmiquement dans éditeurs dédiés [6] ou des plugiciels, comme le SpatGRIS, développé par le GRIS, dirigé par Robert Normandeau. Les trajectoires peuvent aussi être déterminées avec les pixels d'une image et modifiées avec des filtres d'image [8]. Il est encore possible de simuler des trajectoires via des séquences de chiffres représentant les haut-parleurs, comme le compositeur Emmanuel Nunes dans Lichtung I [9], ou par le biais de matrices avec lesquelles les flux d'entrée sont acheminés dynamiquement vers les canaux de sortie [10, 11]. Quant à Stockhausen, il a constitué dans Oktophonie un environnement sonore avec des trajectoires en 3D à partir de multiples fondus-enchaînés entre des motifs spatiaux simples en stéréo ou en quadriphonie, dont les sorties sont réassignées de différentes façons vers les haut-parleurs [12].
La spatialisation concrète, interne au son, analyse ou intervient directement sur les paramètres internes du signal sonore et peut éventuellement décomposer son spectre dans le domaine temporel ou fréquentiel. Dans cette approche ascendante, les caractéristiques de l’objet sonore s’imposent sur l’espace, soit en utilisant les données de l'analyse sonore pour déterminer la localisation spatiale et le mouvement [6,13], soit en diffusant et en décorrélant plusieurs instances d'un son (particule), afin de créer des champs sonores généralement larges et diffus et un espace immersif [14]. Ainsi, la spatialisation concrète prend davantage en compte les paramètres internes du son, soit par corrélation en liant un paramètre spectral ou une intensité du son à une dimension spatiale, ou bien par micro/macro décorrélation - par exemple sur le temps, la phase, les vitesses de lecture, la transposition ou la distorsion - ce qui tend à créer un espace diffus/contrasté.
Cette catégorie comprend un large éventail de techniques de spatialisation sonore, dont notamment des effets de dé-synchronisation sur différents paramètres : la décorrélation micro-temporelle [15], de phase [16], d’amplitude avec des formes d’enveloppe asymétriques [17], la décorrélation de multiples processus sonores en modulant de manière cohérente les paramètres de synthèse grâce à des fonctions sur des surfaces [18], des décalages de hauteur et de délais [19] (Les micro-délais entre canaux et/ou les petits décalages de hauteur - un quart de ton - ou, par extension les variations des taux de lecture, dans l'un des canaux, sont des techniques bien connues pour élargir la largeur et l'espace apparents de la source. Rainer Boesch a par exemple utilisé ces stratégies en combinaison avec des filtres dynamiques pour créer des espaces virtuels dans Drama en 1975 [19]) ou la décorrélation de bandes spectrales [20]. La spatialisation concrète englobe également des traitements de décomposition sur le matériau sonore, comme la diffusion spectrale, soit avec des filtres passe-bande [21] ou des filtres et délais spectraux [22, 23] ou la granulation spatiale [24], dont les particules peuvent être contrôlées à l'aide d'une interface graphique ou d'algorithmes tels que les boids [25], la synthèse par train d'ondes [26] ou des cartes sonores spatiales basées sur des images [27]. Pottier [6] illustre aussi plusieurs œuvres qui utilisent les données de l’analyse sonore pour déterminer les positions et mouvements spatiaux.
Au delà de la classification : vers la composition de relations spatio-temporelles entre les objets sonores
Certaines techniques peuvent se situer à la frontière et s’appliquer aux deux catégories. Ainsi, des techniques abstraites peuvent chercher à l’intérieur du son des éléments de leur spatialisation, par exemple, lorsque la vitesse de lecture d’une trajectoire dépend de la variation d’un paramètre du spectre sonore comme la brillance, et certaines méthodes concrètes peuvent employer des figures pour spatialiser des particules spectrales. Mon intérêt compositionnel ne cherche pas à les diviser, mais à réunir et exploiter les spécificités de chacune d’entre-elles pour créer un espace de relations dynamiques, qui révèlera les différentes facettes et l’évolution des caractéristiques des objets sonores et du lien qu’ils entretiennent entre eux.
La spatialisation ne sert pas qu’à révéler l’espace, mais aussi et surtout à faire décou- vrir les objets sonores, qui évoluent à l’intérieur de celui-ci. Bien que la chorégraphie d’un simple mouvement puisse délivrer un message métaphorique, je considère comme Clozier (1998, p. 74) que:
« le fait qu’un élément sonore d’une voie soit situé, placé, inscrit ici ou là, ne lui donne aucune valeur. Pour chacun des sons, c’est son rapport, son mouvement par rapport ou vers un autre ou les autres qui expriment le musical (lien relatif et non absolu) » [28].
[1] K. Stockhausen, Score Oktophonie: ElektronischeMusik vom Dienstag aus Licht. Kürten, Allemagne: Stockhausen-Verlag, 1994.
[2] G. S. Kendall, « Spatial Perception and Cognition in Multichannel Audio for Electroacoustic Music », Organised Sound, vol. 15, no. 3, pp. 228–238, 2010.
[3] J. Chowning, « Turenas : the realization of a dream », dans Proceedings of Journées d’Informatique Musicale,Saint-Etienne, France, 2011.
[4] M. Meneghini, « An analysis of the compositional techniques in John Chowning’s Stria », Computer Music Journal, vol. 31, no. 3, pp. 26–37, 2007.
[5] A. S. Bregman, Auditory Scene Analysis : The Perceptual Organisation of Sound. Cambridge, Massachusetts: MIT Press, 1994.
[6] L. Pottier, « Le contrôle de la spatialisation », dans La spatialisation des musiques électroniques, L. Pottier, Ed. Saint-Etienne, France : Publications de l’Université de Saint-Etienne, 2012, pp. 81–104.
[7] R. Gottfried, « Studies on the compositional use of space », IRCAM Research Report, 2012.
[8] E. Lyon, « Image-based spatialization », dans Proceedings of International Computer Music Conference, Ljubljana, Slovenia, 2012.
[9] A. Boiteau, « Intégration de l’espace dans les processus compositionnels d’Emanuel Nunes : le cas de Lichtung I », Master’s thesis, IRCAM - Paris, 1997.
[10] B. Truax, « Composition et diffusion : espace du son dans l’espace », dans Académie de Bourges, Actes III, Composition / Diffusion en Musique Electroacoustique. Editions Mnémosyne, 1997, pp. 177–181.
[11] J. Mooney and D. Moore, « Resound : open-SourceLive Sound Spatialisation », dans Proceedings of International Computer Music Conference, Belfast, N. Ireland, 2008.
[12] M. Clarke and P. Manning, « The influence of technology on the composition of Stockhausen’s Octophonie, with particular reference to the issues of spatialisation in a three-dimensional listening environment », Organised Sound, vol. 13, no. 3, pp. 177–187, 2008.
[13] P. C. Chagas, « Composition in circular sound space : Migration - 12-channel electronic music (1995-97) », Organised Sound, vol. 13, no. 3, pp. 189–198, 2008.
[14] H. Lynch and R. Sazdov, « An investigation into theperception of spatial techniques used in multi-channel electroacoustic music », dans Proceedings of International Computer Music Conference, Perth, Australia, 2013.
[15] H. Vaggione, « Décorrélation microtemporelle, morphologies et figurations spatiales du son musical », dans Espaces sonores, A. Sédès, Ed. Paris, France : Editions musicales transatlantiques, 2002, pp. 17–29.
[16] G. S. Kendall, « The decorrelation of audio signals andits impact on spatial imagery », Computer Music Journal, vol. 19, no. 4, pp. 71–87, 1995.
[17] F. Cavanese, F. Giomi, D. Meacci, and K. Schwoon, « Asymmetrical envelope shapes in sound spatialization », dans Proceedings of Sound and Music Computing Conference, Berlin, Germany, 2008.
[18] M. C. Negrao, « ImmLib - A new library for immersive spatial composition », dans Proceedings of International Computer Music Conference, Athens, Greece, 2014.
[19] R. Boesch, « Composition / diffusion en électroacoustique », dans Académie de Bourges, Actes III, Composition / Diffusion en Musique Electroacoustique, F. Barrière and G. Bennett, Eds. Bourges, France : Editions Mnémosyne, 1997, pp. 39–43.
[20] G. Potard and I. Burnett, « Decorrelation techniques for the rendering of apparent sound source width in 3D audio displays », dans Proceedings of Conference on Digital Audio Effects, Naples, Italy, 2004.
[21] R. Normandeau, « Timbre spatialisation : the medium is the space », Organised Sound, vol. 14, no. 3, pp. 277–285, 2009.
[22] R. H. Torchia and C. Lippe, « Techniques for Multi-Channel Real-Time Spatial Distribution Using Frequency-Domain Processing », dans Proceedings of International Computer Music Conference, 2003.
[23] D. Kim-Boyle, « Spectral spatialization - an overview », dans Proceedings of International Computer Music Conference, Belfast, N. Ireland, 2008.
[24] S. Wilson, « Spatial swarm granulation », dans Proceedings of International Computer Music Conference, Belfast, Ireland, 2008.
[25] D. Kim-Boyle, « Spectral and granular spatialization with boids », dans Proceedings of International Computer Music Conference, New Orleans, USA, 2006.
[26] S. James, « From Autonomous to Performative Control of Timbral Spatialisation », dans Proceedings of Australasian Computer Music Conference, Brisbane, Australia, 2012.
[27] E. Deleflie and G. Schiemer, « Images as spatial soundmaps », dans Proceedings of Conference on New Interfaces for Musical Expression, Sydney, Australia, 2010.
[28] C. Clozier, « Composition - diffusion / interprétation en musique électroacoustique », dans Académie de Bourges, Actes III, Composition / Diffusion en musique électroacoustique, F. Barrière and G. Bennett, Eds. Bourges, France : Editions Mnémosyne, 1997, pp. 52–85.
Xon - ChristOn - Live 4 Life
ResearchGate | YouTube | Vimeo | FesseBook | Buy me a coffee | Patreon
- Home
- Photos
- Relationship with the tool
- Motivations behind Live 4 Life
- Global setup and usage
- GUI-views
- Code details
- Audiovisual extension