Quelques propos sur les outils et les méthodes audionumériques en musicologie.
L’interdisciplinarité comme rupture épistémologique

Pierre Couprie

PDF | CITATION | AUTEUR

Résumé

Des premières utilisations de base de données dans les années 1970 aux travaux récents portant sur l’analyse de fichiers audio, les musicologues ont progressivement intégré l’usage des technologies numériques dans leurs méthodes de travail. Toutefois, si quelques logiciels comme iAnalyse proposent des interfaces adaptées aux sciences humaines, force est de constater que ces technologies restent encore difficiles à manipuler sans de solides bases en informatique ou en acoustique. Dans cet article, l’auteur présente une pratique interdisciplinaire de la recherche à la base de la musicologie numérique qui couvre un champ d’activités très vaste allant de l’usage de logiciels pour améliorer les méthodes existantes au développement de nouvelles méthodes indispensables à l’étude de certains corpus. Dans ce dernier cas, la modification profonde de la nature même de la pratique musicologique, le décentrement vers une discipline hybride et le changement de perspective sur un objet musical complexe mettent en évidence une véritable rupture épistémologique.

Mots clés : analyse musicale ; interdisciplinarité ; musicologie numérique ; recherche d’information musicale ; représentation graphique.

Abstract

From the first uses of databases in the 1970s to recent research on the analysis of audio files, musicologists have progressively integrated digital technologies into their working methods. However, while some software such as iAnalyse offers interfaces adapted to the human sciences, it has been observed that these technologies are still difficult to manipulate without a solid knowledge of computer science or acoustics. In this article, the author presents an interdisciplinary practice of research at the heart of digital musicology that covers a very wide field of activities ranging from the use of software to improve existing methods to the development of new methods that are necessary to study specific corpus. In this case, the deep transformation of the nature of musicological practice itself, the move towards a hybrid discipline and the change of perspective on a complex musical object highlight a real epistemological rupture.

Keywords: digital musicology; graphical representation; interdisciplinarity; music information retrieval; musical analysis.

 

Introduction

Depuis la fin des années 1990, mes recherches portent sur le répertoire des musiques électroacoustiques. Ces musiques sont nées d’un ensemble de pratiques qui se sont cristallisées autour des années 1950 pour faire naître un genre musical très varié dont les œuvres ou les performances ont en commun d’utiliser la technologie – électrique, électronique ou numérique – lors des étapes de la composition ou de l’interprétation/performance. Cela signifie que le compositeur ou le musicien manipule des données différentes de celles des autres traditions musicales partageant ou non des formes d’écritures. De plus, les compositeurs et les musiciens utilisant l’informatique ont des pratiques aussi très différentes entre eux ; cela concerne les logiciels, les instruments ou les interfaces, l’écriture d’une partition, le champ même de cette partition ou leur propre statut de musicien, de compositeur ou des deux. Ces différences impactent aussi très fortement le travail du musicologue. Celui-ci doit maîtriser l’usage des technologies et des logiciels utilisés par les artistes afin de pouvoir accéder aux ressources, fichiers et enregistrements qui constituent la base de son corpus. Cela ne signifie pas qu’il est plus facile pour un chercheur travaillant sur la musique électroacoustique de maîtriser les technologies nécessaires à la pratique de la musicologie numérique, c’est simplement indispensable.

L’objectif de cet article est de mener une réflexion épistémologique sur la pratique de la musicologie numérique ou computationnelle avec différents corpus audionumériques dont l’électroacoustique. Cette pratique tourne essentiellement autour de l’usage de méthodes d’analyses musicales permettant d’étudier des documents audiovisuels. De nombreux outils, méthodes et théories sont issus de ceux utilisés ou développés par les compositeurs. Ainsi les logiciels et les méthodes employés pour créer les œuvres peuvent aussi servir pour les étudier dans une démarche inverse – une forme de rétro-ingénierie permettant de déconstruire l’œuvre – ou pour réaliser des modélisations en utilisant ou non les mêmes matériaux que les compositeurs. De même, les théories développées par les artistes pour produire leurs œuvres, travailler avec leurs étudiants ou simplement formaliser leur pensée peuvent aussi servir pour l’analyse musicale.

Une première étape portant sur l’apprentissage des pratiques individuelles des compositeurs et des musiciens est nécessaire au travail du musicologue, toutefois elle rend bien souvent plus difficile des approches musicologiques différentes comme le comparatisme, l’étude de répertoires dont les sources sont absentes ou l’étude des pratiques performatives basées sur l’improvisation. Dans ces domaines, le musicologue est bien souvent freiné par l’absence d’outils qui permettraient de faciliter son travail ou de méthodes qui lui ouvriraient une voie de recherche. Il peut bien évidemment déporter sa recherche en s’intéressant à l’artiste lui-même dans une visée sociologique ou sur les dispositifs utilisés dans une visée technologique. La solution qui m’a semblé la plus féconde – probablement aussi la plus complexe, car tout reste à inventer – m’a engagé dans une pratique de la musicologie numérique à travers l’analyse musicale. Or, je vais montrer comment cette pratique est profondément différente de celle portant sur les objets traditionnels de la musicologie, à savoir les partitions, les textes et les images. C’est la raison pour laquelle cet article commence par situer cette différence dans la musicologie à travers la question de l’hybridation des disciplines, c’est-à-dire de ce que l’on nomme plus communément l’interdisciplinarité1Je parlerai d’« interdisciplinarité » pour réunir les différentes pratiques de l’on nomme aussi « pluridisciplinarité », « multidisciplinarité » ou « transdisciplinarité ». Miller propose une signification de chacun de ces termes en les réunissant dans toutes les activités qui « juxtaposent, appliquent, combinent, synthétisent, intègrent ou transcendent deux ou plusieurs disciplines » (Miller 1982, p. 6). Si de nombreux écrits détaillent avec beaucoup de précisions ce que signifie chacun de ces termes, ces derniers ne prennent leur sens qu’au contact des objets d’étude et des méthodes employées pour la recherche plutôt que dans une définition … Continue reading. Dans un deuxième temps, j’exposerai ce qui constitue le cœur de l’interdisciplinarité des musicologies numériques et computationnelles pour ensuite donner quelques exemples concrets situés dans l’étude des documents audionumériques.

Derrière ces questions musicologiques se pose bien évidemment celle d’une modification épistémologique profonde et je vais tenter de montrer qu’elle constitue pour moi une véritable rupture. Les catégories et méthodes utilisées traditionnellement dans la musicologie ne peuvent plus être appliquées à ces nouveaux objets.

 

Musicologie et interdisciplinarité

L’objectif ne sera pas ici de définir le champ épistémologique de l’interdisciplinarité et encore moins celui de l’interdisciplinarité appliquée à la musicologie – le sujet mériterait une longue discussion qui dépasse très largement le format de cet article –, mais plutôt d’introduire l’interdisciplinarité au regard de ma pratique de recherche.

Interdisciplinarité et hybridation

Si l’interdisciplinarité est au « fondement de la constitution de toute discipline » (Resweber 2011, p. 171), les recherches réellement interdisciplinaires peuvent sembler relever d’une forme d’idéalisation (Kasavin 2008, p. 44), voire d’une certaine utopie. En effet, cette pratique qui consiste à faire travailler ensemble des scientifiques provenant de domaines différents sur une même thématique pour ensuite permettre le réinvestissement des résultats dans chaque discipline est assez complexe à mettre en œuvre. Ma pratique de l’interdisciplinarité est un peu différente de celle prônée par de nombreux écrits sur le sujet. Bien sûr, j’ai collaboré avec des collègues de différents domaines lors de projets de recherche, mais il est vrai que l’interdisciplinarité qui m’a le plus apporté est celle que j’ai construite dans mes propres recherches. En 2010, Jean-Claude Risset soulignait que l’interdisciplinarité consiste bien souvent à s’asseoir entre deux chaises, à « galérer » (Risset 2010, p. 1) et Barthes écrivait dans les années 1980 que « l’interdisciplinarité n’est pas de tout repos » (Barthes 1984, p. 69). Toutefois, comme le souligne Risset à propos de l’association entre la musique et l’informatique, la démarche interdisciplinaire « est fructueuse pour la recherche » (ibid.). De même les philosophes Michel Serres, Edgar Morin ou Jean-Michel Besnier n’ont eu de cesse de défendre le mélange, l’échange (Serres 1992, p. 44) et l’hybridation des disciplines (Morin 1994), voire l’indiscipline et le désordre dans sa dimension créatrice d’innovations scientifiques (Besnier 2013).

Mais qu’en est-il pour la musicologie ? Elle a finalement toujours été une interdiscipline associant histoire, philosophie, esthétique, analyse, etc. L’ethnomusicologie lui a apporté le regard de l’anthropologie et plusieurs autres disciplines l’ont enrichie comme la didactique, la sociologie, l’archivistique ou la psychologie cognitive. L’apport des sciences exactes, à travers l’informatique, l’acoustique, les mathématiques, lui a donné des méthodes qui ont contribué à l’émergence de nouveaux champs de recherche dans les domaines de la lutherie, des performance studies, de la théorie musicale ou de l’intégration de nouveau corpus. Comme le souligne Jean-Jacques Nattiez, le phénomène musical ne peut désormais plus être étudié à travers une seule approche ; il prône ainsi une « musicologie générale » ouverte et sans limites dans ses investigations (Nattiez 2007, p. 1205-1206). Pierre Schaeffer fut probablement le premier à concevoir une recherche musicale interdisciplinaire au sein du service de la recherche de la rtf puis de l’ORTF dès 1960. Il y dirigea une équipe de plus d’une centaine de personnes réparties en quatre groupes qui seront particulièrement productives aussi bien sur le plan de la création audiovisuelle que sur celui de la recherche théorique en considérant la musique comme une expérience humaine (Schaeffer 1971). Le modèle proposé par Schaeffer sera très fécond en inspirant la création de nombreux centres de recherches – comme les centres nationaux de création musicale (CNCM) en France – ou la pratique de la recherche-création.

De la « critical musicology » intégrant d’autres disciplines des sciences humaines à la « musicologie générale » en passant par la « musicologie postmoderne » (Scott 1998, p. 114-115), il semble que le chercheur ne puisse plus faire l’économie de nouvelles questions qui nécessitent bien souvent une expertise dépassant très largement le champ de ses compétences. Toutefois, pour en faire une interdiscipline, voire une discipline hybride, qui trouve bien souvent son origine dans l’intégration de nouveaux corpus, la musicologie ne peut que difficilement se contenter de l’usage de méthodes externes pour envisager aussi une redéfinition de ses propres méthodes de travail, voire de sa nature même (Cook 2005, p. 2).

Les recherches musicologiques sur la création contemporaine nécessitent bien souvent un élargissement vers d’autres domaines scientifiques. Le compositeur et sa partition ne peuvent plus être seuls au centre des recherches ; l’acte créatif est plutôt à envisager comme un acte collectif. Prendre en compte l’aspect social d’une création musicale est une direction de recherche possible. Une autre direction, qui consiste à remonter l’acte de création dans le sens inverse, est couverte par plusieurs domaines comme la génétique musicale ou, plus largement, le processus créatif et la recherche-création. Si les deux premiers se contentent finalement de remonter l’histoire de la création ou de déconstruire le procédé complexe qui est à l’origine de l’acte créatif dans ses diverses directions (historique, philologique, analytique et sociologique), la recherche-création – que l’on associe souvent à tort à une vague volonté de rendre scientifique l’acte créatif (Stévance et Lacasse 2013, p. 17) – se situe plutôt dans un dialogue fécond entre la recherche et la création au sens large. Dans ce sens, la recherche-création prend aussi bien en compte le travail du compositeur que celui de l’interprète, du réalisateur en informatique musicale, et de tous les acteurs d’une création, d’une interprétation, d’une performance ou d’une improvisation, dans une visée de partage des connaissances. Cette vision de la recherche qui articule le savoir au savoir-faire artistique et à l’expérience esthétique peut être rapprochée de la notion de « science impliquée » dans laquelle l’activité de recherche est contextualisée et portée par des collectifs d’humains (Coutellec 2015, p. 18). Sur le plan des mélanges disciplinaires, ces recherches se situent plutôt dans une forme d’interdisciplinarité focalisée (Charaudeau 2010) et allient la part artistique de la création tournée vers l’expérience esthétique et le partage d’un savoir-faire, la part non scientifique de la recherche musicale concernant les savoirs empiriques non formalisés et la part scientifique de la musicologie obéissant à une possible réfutabilité (Popper 1973, p. 38) et à une reproductibilité des expériences.

Musicologie numérique

La pratique de l’interdisciplinarité en musicologie entre en parfaite résonance avec la musicologie numérique ou computationnelle. La création musicale a probablement été la première à investir ce nouveau champ de recherche dès les années 19702Date des premières publications dans des revues telles que le Computer Music Journal ou les conférences telles que l’International Computer Music Conference (ICMC).. Il comprend deux types d’activités assez différentes :

  1. La première concerne l’usage de ressources et d’outils numériques permettant de mener une recherche à l’aide de méthodes bien identifiées. Les musicologues cherchent avant tout à améliorer leurs méthodes de classification, d’étude historique ou d’analyse des œuvres et de profiter d’une masse de ressources disponibles importantes pour les généraliser à de vastes corpus, voire transférer certaines méthodes vers de nouveaux corpus.
  2. Le second ensemble d’activités scientifique, que l’on pourrait nommer « musicologie computationnelle » regroupe des recherches visant à créer de nouvelles méthodes et de nouveaux outils permettant d’explorer des champs de recherches encore peu ou pas développés. Ces recherches nécessitent bien souvent de modifier la nature même de la pratique musicologique : les corpus d’étude peuvent être différents, il peut être nécessaire de redéfinir les standards de notation, de remettre en question le formalisme de certaines théories musicales, d’intégrer des méthodes particulièrement éloignées de l’objet musical, etc.

Ces deux types d’activités ont bénéficié ces dernières années de la constitution d’importantes bases de données contenant des ressources textuelles, iconographiques ou audiovisuelles (Selfridge-Field 2017). Elles font appel à de nombreuses méthodes pouvant être regroupées dans trois directions différentes :

  1. L’étude de ressources symboliques3Les ressources symboliques désignent ici le contenu encodé à partir de l’écriture musicale (partition, esquisse, annotations d’interprétation, etc.). Il existe de nombreux formats qui permettent d’encoder dans une syntaxe compréhensible par l’ordinateur tout ou partie d’une partition musicale. constituées ou non en bases de données. L’analyse computationnelle de corpus de partitions est un champ très important de cette direction de recherche, mais nous trouvons aussi les travaux sur l’étude de textes4Comme le projet Thesaurus Musicarum Germanicarum, http://www.iremus.cnrs.fr/fr/projets-de-recherche/tmg-thesaurus-musicarum-germanicarum (consulté le 15 juillet 2019). ou d’images5Comme le projet Musiconis visant à étudier l’iconographie du son et de la musique au Moyen Âge, http://www.iremus.cnrs.fr/fr/base-de-donnees/musiconis (consulté le 15 juillet 2019).. Les chercheurs utilisent certaines techniques provenant de la recherche d’information musicale ou music information retrieval (MIR) pour naviguer, catégoriser ou analyser ces corpus. Il s’agit aussi de créer de nouveaux corpus numériques en utilisant les techniques de reconnaissance optique de la notation musicale, optical music recognition (OMR), ou de créer des jeux de données (ground truth dataset ou, plus simplement, dataset), qui seront utilisés par les développeurs et les scientifiques pour éprouver leurs algorithmes.
  2. Avec le développement très important des travaux sur l’extraction d’informations à partir du signal audio, les techniques provenant des MIR et utilisant les descripteurs audio est utilisée en musicologie depuis le début des années 2000. Les études sur l’interprétation et dans le domaine des performance studies exploitent fortement ces techniques pour mettre en évidence des corrélations entre les paramètres d’analyse audio6L’objectif est ici de mettre en relation des données différentes extraites du même fichier audio ou des données de même type extraites de fichiers différents afin de faire émerger les corrélations ou les similarités. Les études sur l’interprétation permettent ainsi de corréler les variations d’intensité ou de tempo au phrasé musical afin d’étudier les variations d’interprétation chez plusieurs musiciens. Dans le domaine de la création contemporaine, les descripteurs sont particulièrement efficaces pour analyser la forme musicale ou mettre en évidence des typologies de gestes ou de morphologies. ou réaliser des études comparatives à grande échelle sur des corpus spécifiques7Par exemple le projet Mazurka sur l’étude d’un corpus d’interprétations de mazurkas de Chopin (Cook 2014)..
  3. Enfin, la dernière direction de recherche touche un ensemble de méthodes autour de la création au sens large8Incluant aussi bien l’acte créatif que l’acte d’interprétation sur tous les types de genres musicaux et incluant par conséquent les popular studies ou les corpus de l’ethnomusicologie. Ces méthodes englobent aussi les recherches visant à présenter la création contemporaine comme un acte collectif en intégrant donc les réalisateurs musicaux (RIM), les techniciens et l’ensemble des acteurs indispensables à l’acte créatif (Zattra 2018). Il est aussi possible d’aller jusqu’à inclure l’ensemble des professionnels qui concourt à l’acte créatif comme le propose Howard Becker dans son monde de l’art (Becker 2010). et relevant de pratiques assez variées allant de la pédagogie à l’archivistique9Comme le projet d’archivage collaboratif et préservation créative (Bonardi, Lemouton et Pottier 2019). en passant par la diffusion, la préservation10Comme le projet GAMELAN (Barkati et Rousseaux 2012)., la lutherie ou la modélisation des œuvres11Par exemple, le projet Interactive Aural Analysis (Clarke 2012).. Dans cette direction profondément interdisciplinaire, les chercheurs sont généralement amenés à développer de nouveaux outils permettant de réinvestir dans la création les avancées de la recherche musicologique.

Ces trois directions ne sont bien évidemment pas étanches. Les études sur la création musicale bénéficient d’ores et déjà des avancées des techniques de mir sur les fichiers audio. Mais un dialogue plus avancé sera peut-être aussi à la source d’innovations plus importantes dans les années à venir. Ainsi, l’extraction de paramètres musicaux permettant la synchronisation automatique de fichiers audio et de partition, l’utilisation de techniques d’apprentissage machine pour l’aide à la segmentation de fichiers, à l’analyse de la forme ou du style musical, l’apport des nouveaux développements informatiques pour l’étude de la création pourraient ouvrir de nouveaux champs de recherche musicologiques. C’est ce que soulignait déjà Cook en 2005 à propos de l’utilisation de données audio (Cook 2005, p. 5).

Toutefois, si les premières bases de données réalisées pour la musicologie datent des années 1970 (Urberg 2017, p. 137), force est de constater que la pratique des musicologies numériques et computationnelles est très jeune et très éparse. Les domaines des sciences exactes ont depuis longtemps intégré dans leurs programmes d’enseignement certaines disciplines des sciences humaines. C’est encore très loin d’être le cas des formations musicologiques en France qui ne proposent que très rarement des cours de programmation informatique ou d’acoustique. Le vœu pieux de Cook en 2005 n’a donc pas été réellement exaucé. Les recherches qui permettraient de produire une avancée majeure en musicologie restent cantonnées à une poignée de chercheurs éparpillés dans quelques laboratoires et universités. Les programmes de recherches actuels permettant de favoriser l’interdisciplinarité entre les sciences humaines et les sciences exactes sont une avancée importante, mais transformer ce qui apparaît plus comme un phénomène de mode en une réelle volonté de travailler en interaction – probablement le seul moyen d’innover dans la science musicologique – nécessitera beaucoup de transformations dans les formations universitaires et l’organisation des laboratoires de recherche.

Outre l’incompréhension de vocabulaire, de théorie et de méthode qui peut exister entre des chercheurs de domaines différents, la pratique de l’interdisciplinarité en musicologie se heurte bien souvent à plusieurs freins. Le premier d’entre eux concerne le temps de la recherche. Les projets musicologiques nécessitent généralement un temps plus important. Ce n’est pas un jugement de valeur, mais l’étude des sources musicales demande bien souvent un travail manuel et une interprétation longue et fastidieuse12Ce problème est en train de devenir un enjeu majeur avec le développement des techniques d’apprentissage profond utilisés en intelligence artificielle. Ils nécessitent d’avoir d’importants jeux de données annotées sur lesquels les algorithmes comme les réseaux de neurones peuvent être entrainés. Ces big data existent dans le domaine de l’image et du texte ainsi que dans celui du répertoire récent des musiques populaires. Mais, en dehors de quelques applications commerciales (comme Shazam) ou quelques projets de recherche en apprentissage non-supervisé (comme les logiciels d’improvisation ou de composition automatique), le son et la musique reste encore le parent pauvre … Continue reading. Le deuxième frein concerne le manque de formation des musicologues en sciences exactes. Par exemple, les outils développés en acoustique et en informatique sont généralement inutilisables par le chercheur en sciences humaines13Installer un environnement de développement, les packages de dépendances nécessaires à l’utilisation d’un script, préparer les fichiers audio pour être utilisables avec le script, faire tourner celui-ci, utiliser ensuite d’autres packages ou logiciels pour réaliser des visualisations de données restent très largement hors de portée d’un musicologue.. Il conviendrait donc de réaliser des logiciels – même simples – qui puissent réellement être manipulables par les musicologues14Dans la plupart des projets interdisciplinaires, les chercheurs en sciences exactes se contentent de déposer les codes sources de leurs réalisations sur des plateformes de de gestion de développement de logiciels. Si cela fonctionne avec leurs collègues directs, l’utilisation de ces codes reste très largement hors de portée des chercheurs en sciences humaines sans connaissance spécifique en informatique.. Enfin, et ce dernier frein est lié au précédent, l’obsolescence et la fragmentation des technologies développées dans le cadre de projets interdisciplinaires ne favorise pas la reproductibilité ou le transfert de méthodes sur des corpus ou des domaines différents. Il faudrait donc créer des espaces d’interdisciplinarité avec des formations communes, des outils communs et des plateformes d’échange adaptées aux compétences de chacun.

Si ces questions sont au cœur de certaines recherches, elles restent bien souvent étrangères à la grande majorité des musicologues. Avant de présenter quelques exemples, il convient de revenir sur la définition de la musicologie numérique. Pour certains chercheurs, la simple utilisation d’un logiciel – par exemple un éditeur de partition – dans un contexte musicologique relève de la musicologie numérique. Il s’agit ici d’un lien d’usage. Or, la science ne se caractérise pas par ses usages, mais par ses objets, ses méthodes et ses questions (Bachelard [1938]2011, p. 16).

Enfin, il est une question qui apparaît en creux depuis le début de l’article : elle concerne les nouveaux outils, les nouvelles méthodes et les nouveaux corpus. La pratique de l’interdisciplinarité à travers la musicologie numérique me semble relever d’une réelle rupture épistémologique lorsqu’elle s’attaque à ces nouveaux objets. Le chercheur ne peut plus seulement adapter les méthodes de la musicologie traditionnelle à ces corpus numériques15Ce transfert de méthodes était une étape essentielle à l’intégration du numérique en musicologie, mais il me semble maintenant plutôt relever d’un effet diligence (Perriault 2002, p. 53-54). qui apparaissent comme « a-musicologiques » (Bonardi et Rousseaux 2011), mais imaginer de nouvelles méthodes pour une musicologie étendue.

 

Quelques exemples d’analyse musicale à partir de fichiers audionumériques

Les technologies

La majeure partie des logiciels utilisés en musicologie provient d’autres champs disciplinaires. La figure 1 présente les principales technologies employées dans le domaine de l’analyse musicale. Elles sont réparties en deux catégories principales : à gauche, les logiciels permettant de travailler sur des données de type symbolique (partition, MIDI et autres codages de notes) et, à droite, les logiciels acceptant des données audio. Certains d’entre eux appartiennent aux deux catégories. Les logiciels développés spécifiquement pour la musicologie apparaissent entourés en gras, les autres technologies proviennent de l’acoustique, de l’analyse et du traitement de la parole ou de la création musicale. Les principales méthodes, en ovales grisés, peuvent être réparties en quatre catégories : l’analyse computationnelle de données symboliques, l’extraction d’informations du signal audio (MIR), la visualisation de données et d’informations, l’annotation et la création de représentations musicales16Les représentations musicales sont des visualisations de données provenant d’une analyse musicale comme la forme et les structures, l’évolution du timbre, les types d’articulations ou de morphologies, etc.. Si l’analyse computationnelle de données symboliques a été un des principaux domaines d’études depuis le milieu des années 1970, des domaines comme ceux basés sur les techniques de MIR ou la réalisation de représentations musicales efficaces en musicologies restent encore très largement inexplorés.

L’usage de cette galaxie de logiciels révèle un certain nombre de difficultés lors de la pratique de la musicologie numérique. La principale semble être celle de l’échange de données entre ces différentes technologies. Quelques formats ont été mis en avant par la recherche comme MusicXML, MEI (Music Encoding Initiative) issu du TEI (Text Encoding Initiative), SDIF (Sound Description Interchange Format) ou les formats basés sur une structuration sémantique de type OWL/RDF17Voir, par exemple, le format réalisé dans le cadre du projet GAMELAN (Barkati et Rousseaux 2012). (Web Ontology Language/Resource Description Framework). Toutefois, ils restent pour la plupart très difficiles à utiliser par les musicologues18Comme tous les formats, le musicologue peut travailler à partir d’une représentation fournie par le logiciel – par exemple, une partition générée à partir d’un fichier MEI – mais il sera limité dans les possibilités d’action, de recherche ou d’analyse. Ainsi, l’étude de corpus nécessitera bien souvent de passer directement par les fichiers sources et donc d’en comprendre leurs syntaxes. et leur focalisation sur la temporalité d’une œuvre (excepté pour OWL/RDF) ne favorise pas les études diachroniques, comparatives ou hors temps qui sont à la base de nombreuses méthodes d’analyse musicale. Une autre difficulté réside dans l’obsolescence et la très grande fragmentation entre les logiciels et les technologies. Passer d’un logiciel à l’autre est bien souvent compliqué19L’adoption de formats d’échange, comme cité plus haut, reste encore très localisée dans certaines technologies ou logiciels. De plus, la mise en relation de données provenant de sources de différents types est toujours difficile à réaliser. Ceci problème a déjà été étudié à travers les flux de travaux (workflows) en analyse musicale (voir Couprie 2018b)..

Dans le développement du logiciel d’aide à l’analyse musicale iAnalyse, j’ai choisi de travailler à contre-courant des pratiques généralement utilisées dans le domaine de la recherche. Le fait d’être seul à gérer à la fois la partie musicologique et les parties informatiques et acoustiques m’a permis de résoudre une grande part de ces difficultés. iAnalyse représente 13 années de développement (de 2006 à 2019) et pouvoir prendre le temps d’expérimenter des méthodes d’analyse musicale et de les transposer dans un logiciel utilisable par tout musicologue a été un avantage très important qui a probablement été à la source du succès du logiciel.

Figure 1 : Les principaux logiciels utilisés en analyse musicale.

Figure 1 : Les principaux logiciels utilisés en analyse musicale.

Les méthodes

L’objectif n’est pas de décrire l’ensemble des possibilités apportées par ces technologies, mais plutôt d’exposer quelques exemples dans lesquels l’apport de l’informatique nécessite une modification en profondeur des compétences du musicologue. Pour ce faire, je vais me concentrer sur les méthodes utilisées en analyse musicale réalisée à partir de fichiers audionumériques, elles suivent toujours les mêmes étapes :

  1. L’extraction d’informations du fichier audio : cette étape est prise en charge par le logiciel de lecture – à travers la visualisation d’une forme d’onde ou d’un sonagramme – ou réalisée par une extraction de descripteurs audio20Les descripteurs audio permettent d’extraire des informations du signal audio comme l’amplitude, la brillance, l’inharmonicité, etc. Pour des informations plus détaillées, voir Couprie 2016b et Couprie 2018b.. L’amplitude se visualise sur la forme d’onde qui représente le signal audio ou à partir de descripteurs comme l’amplitude RMS21L’amplitude RMS (root mean square ou valeur efficace) est une mesure de l’amplitude sur un intervalle de temps donné. ou le loudness. Les descripteurs peuvent être regroupés en trois catégories (Magas et al. 2013, p. 12) :a) Les descripteurs de bas niveau calculés sur des fragments très courts du signal et dont les algorithmes sont suffisamment robustes pour produire des résultats fiables (par exemple l’amplitude RMS ou la brillance spectrale) ;
    b) Les descripteurs de niveau moyen permettant d’extraire des informations dans l’espace de hauteurs (fréquence fondamentale, inharmonicité) ou sur le plan temporel (pulsation). Les algorithmes utilisés sont moins robustes22La robustesse d’un algorithme désigne sa stabilité et sa fiabilité. Un algorithme peu robuste ne permettra pas d’obtenir un résultat fiable à 100 %. que les précédents, mais l’interprétation est plus facile pour le musicologue ;
    c) Enfin, les descripteurs de haut niveau permettant de caractériser des données perceptives ou sémantiques (émotion, rythme, tonalité, harmonie, genre musical). Ici aussi, les algorithmes utilisés sont moins robustes et dépendent fortement des corpus.
  2. Le calcul de coefficients à partir des informations extraites du fichier audionumérique : cette étape optionnelle permet d’obtenir des données issues de méthodes statistiques comme la corrélation23Le coefficient de corrélation linéaire ou la corrélation hiérarchique calculée sur le coefficient de corrélation de Pearson (par exemple : http://www.mazurka.org.uk/ana/timescape, consulté le 8 juillet 2019). Ce dernier étant particulièrement adapté à l’étude de données à différents niveaux hiérarchiques (Cook 2014, p. 187-188)., l’écart-type24L’écart-type ou la variance sont généralement intégrés au calcul des descripteurs audio., la déviation, les différents types de moyennes25Par exemple, la moyenne arithmétique ou la moyenne quadratique. Cette dernière est adaptée aux calculs portants sur les amplitudes., etc.
  3. La visualisation des informations extraites précédemment : de la même manière, cette étape est réalisée automatiquement par le logiciel de lecture audio ou manuellement avec des technologies d’analyse acoustique ou d’analyse de données. Certaines visualisations sont particulièrement efficientes pour la musicologie, car elles permettent de relier facilement les valeurs extraites du signal à des paramètres d’analyse musicaux comme la morphologie, la structure, le timbre, la variation d’intensité, les variations de tempi ou d’écoulement temporel, etc. Cette étape est habituellement négligée et les représentations utilisées sont celles fournies par les logiciels avec des réglages par défaut. Or, il est essentiel d’élaborer des représentations personnalisées qui permettront d’éviter de fausses interprétations ou passer à côté d’informations pertinentes26Cet enjeu a été traité à travers le développement du logiciel EAnalysis, véritable laboratoire d’expérimentations sur la visualisation de données et la représentation musicale (Couprie 2016a et 2018a)..
  4. L’interprétation des résultats, l’analyse et la création de représentations musicales : cette étape, purement musicologique, peut être déployée sur les visualisations réalisées dans l’étape précédente à l’aide d’annotations ou nécessiter la création de représentations musicales ad hoc facilitant l’analyse. L’utilisation de compositions de représentations permet d’interpréter, de formuler des hypothèses ou de mettre en évidence des corrélations entre plusieurs données extraites du signal audionumérique et des paramètres de l’analyse musicale.

Ces étapes mettent non seulement en évidence l’interaction entre plusieurs domaines de compétences très éloignés les uns des autres, mais aussi et surtout une profonde rupture de méthode en musicologie, ce qui me semble être une rupture épistémologique. L’audio est très difficile à étudier sans un support visuel, c’est particulièrement le cas avec la création contemporaine ou avec des enregistrements de longue durée. Il faut donc passer par des représentations, toujours imparfaites, qui seront à la base du travail d’analyse. Or, la lecture même du fichier audionumérique et ses représentations ne sont que des interprétations, des médiations technologiques pour lesquelles il est impossible de vérifier la fidélité (Bachimont 2013, p. 26). De plus, les représentations ne sont généralement pas musicales : la forme d’onde n’est qu’une vague représentation de l’intensité sonore, le sonagramme n’est qu’une estimation approximative du contenu spectral ou le descripteur de barycentre spectral n’est qu’une représentation de la « brillance », particulièrement difficile à traduire musicalement. Avec l’étude de fichiers audionumériques, le musicologue navigue donc dans des données très approximatives pour lesquelles il va devoir construire les outils et les méthodes permettant de révéler leurs qualités musicales.

La visualisation de données

Certaines données issues de l’extraction de descripteurs audio (étape 1) ou de calculs qui sont réalisés ensuite (étape 2) sont donc difficiles à interpréter pour le musicologue. Comme je viens de l’exposer, d’une part, elles sont assez éloignées des informations musicales et, d’autre part, leur interprétation peut être délicate, car sujette à caution. Il faut donc bien veiller aux représentations qui vont servir de base à l’analyse. Outre les représentations habituellement utilisées en statistiques comme les graphes, les histogrammes, les nuages de points, etc., certaines visualisations sont particulièrement adaptées à la musicologie. J’en présenterai brièvement deux que le lecteur retrouvera dans la partie suivante.

La brightness standard deviation (BStD), proposée par Mikhail Malt et Emmanuel Jourdan (Malt et Jourdan 2015), est basée sur une représentation de type flux dans laquelle deux ou trois descripteurs autour de la brillance spectrale (barycentre ou rolloff) sont associés pour ne former qu’une seule courbe et mettre en évidence l’évolution de certaines qualités sonores qui entrent dans la qualification du timbre ou de la couleur spectrale (figure 2).

Figure 2 : Le principe de réalisation d’une courbe de brightness standard deviation (BStD).

Figure 2 : Le principe de réalisation d’une courbe de brightness standard deviation (BStD).

Les courbes de flux comme la BStD facilitent l’interprétation et la corrélation de données différentes.

Les matrices d’autosimilarité mettent en évidence les structures sous-jacentes aux données. Elles ne représentent pas les valeurs, mais leurs similarités, c’est-à-dire, la distance qui les sépare. Le calcul est réalisé en deux ou trois étapes (figure 3). La première consiste à calculer les distances entre chaque valeur d’une courbe (A) et à les inscrire dans une matrice (B). La diagonale (B en gris) représente la distance 0 qui existe entre les valeurs et elles-mêmes. La matrice obtenue contient un nombre très important de valeurs qu’il est impossible d’interpréter ; la deuxième étape consiste donc à convertir les valeurs en couleurs (C), généralement en niveau de gris. On obtient ainsi une matrice colorée (D) dans laquelle il est facile de repérer des regroupements autour de point, de zones ou sous la forme de lignes. Une troisième étape peut consister à colorer cette matrice en fausses couleurs, à la manière de ce que l’on pratique dans l’imagerie médicale, afin de pallier les problèmes de perception liés à l’usage de niveaux de gris (Ware 2000, p. 129).

Figure 3 : Le principe de calcul d’une matrice d’autosimilarité.

Figure 3 : Le principe de calcul d’une matrice d’autosimilarité.

La matrice d’autosimilarité sera très efficace pour aider à l’analyse de structures ou à la navigation dans des fichiers longs. Il est aussi possible d’utiliser des matrices de similarité pour comparer des données différentes, par exemple issues d’enregistrement audio de plusieurs versions d’une même œuvre27Dans ce cas, il sera nécessaire d’aligner les données sur le plan temporel avec un algorithme d’alignement dynamique temporel (DTW). Voir Zattra et Orio (2006) pour un exemple d’analyse comparative de ce type..

Trois exemples28Les exemples présentés dans cette partie ont tous été réalisés avec la version 5 du logiciel iAnalyse disponible sur http://ianalyse5.pierrecouprie.fr (consulté le 16 juillet 2019). de visualisation de données extraites du signal audio

Les étapes d’extractions de descripteurs et de calcul de coefficients découpent le fichier audionumérique en fragments qui peuvent ensuite être analysés à leur échelle. Un des objectifs de l’analyse musicale est de mettre en relation des objets/morphologies/saillances/structures locales aux macrostructures ou aux formes de plus haut niveau. Ce couple objet/structure décrit par Schaeffer (Schaeffer 1966, p. 277-278) représente une approche ascendante (bottom-up) essentielle pour retrouver l’objet musical présent dans les microstructures. Toutefois, cette démarche, basée sur une pensée réductionniste, ne permet pas d’envisager une étude de la complexité musicale dans son ensemble. C’est la raison pour laquelle, je place mes recherches dans une pensée systématique plus à même de fournir des concepts et méthodes sous-tendant la création de représentations musicales complexes. Je propose ainsi des « macroscopies musicales », en référence à Joël de Rosnay (Rosnay 1975), qui offrent une visualisation du sonore et du musical à plusieurs niveaux.

La figure 4, comme la suivante (figure 5), contient plusieurs représentations ou des représentations composites. Certaines sont directement extraites du signal, comme la double courbe d’amplitude présente en bas de la figure 4. Les deux autres visualisations au-dessus (la courbe noire et la matrice d’autosimilarité calculée à partir de cette courbe) représentent la déviation entre les deux courbes et la similarité de cette déviation. L’objectif est ici d’analyser les différences entre les deux canaux audio (gauche et droite) afin de les mettre en perspective avec la forme musicale globale. Une des particularités musicales de ce morceau des Pink Floyd est de jouer sur une alternance entre des moments présentant une image stéréophonique très stable (deuxième moitié de la figure 4 avec une courbe de déviation ne présentant que des oscillations très réduites) et d’autres moments beaucoup plus mobiles (première moitié de la courbe présentant de fortes oscillations).

Figure 4 : « Is there anybody out there? » (<em>The Wall</em>) par Pink Floyd (1979) ; représentation des amplitudes RMS des deux canaux de la stéréophonie et de leur déviation (courbes des deux canaux superposées [bas], courbe de la déviation [milieu] et matrice d’autosimilarité calculée sur la courbe de déviation [haut]).

Figure 4 : « Is there anybody out there? » (The Wall) par Pink Floyd (1979) ; représentation des amplitudes RMS des deux canaux de la stéréophonie et de leur déviation (courbes des deux canaux superposées [bas], courbe de la déviation [milieu] et matrice d’autosimilarité calculée sur la courbe de déviation [haut]).

Dans cet exemple, les trois représentations sont complémentaires, mais la matrice d’autosimilarité (en haut) offre une visualisation très fine des variations dans la déviation des canaux – indiquée par les couleurs des ligne verticales – donnant des indices sur sa rythmique propre. Les étapes de travail du musicologue sont en quelque sorte résumées dans cette représentation : la forme d’onde (ici absente) la superposition des courbes d’intensité pour mieux visualiser leur corrélation (courbes du bas) le calcul de la déviation (courbe du milieu) le calcul de la matrice (en haut) pour faciliter l’interprétation. Ce mode de travail qui consiste à préciser progressivement les points de relation entre les données se retrouve aussi sur la figure 5. L’objectif est ici de comparer trois interprétations du Prélude à l’après-midi d’un faune (Debussy 1894a, 1894b, 1894c). La création de BStD a permis de mettre en évidence les différences sur les plans du déroulement temporel, de l’amplitude et du contraste de certaines qualités du timbre. Les lignes verticales présentant les positions des chiffres de la partition ont ensuite été ajoutées manuellement et les variations temporelles ont été accentuées par le dessin de rectangles colorés.

Figure 5 : <em>Prélude à l’après-midi d’un Faune</em> de Claude Debussy (1894) ; comparaison de trois interprétations sous la forme de BStD annotées (y: barycentre spectral, épaisseur : variance spectrale, couleur : <em>zero crossing rate</em>) et d’un report des durées de chaque partie correspondante aux chiffres sur la partition.

Figure 5 : Prélude à l’après-midi d’un Faune de Claude Debussy (1894) ; comparaison de trois interprétations sous la forme de BStD annotées (y: barycentre spectral, épaisseur : variance spectrale, couleur : zero crossing rate) et d’un report des durées de chaque partie correspondante aux chiffres sur la partition.

Les figures 4 et 5, au-delà de l’information et des indices directement utilisables en analyse musicale, sont caractéristiques d’une méthode scientifique dans laquelle chaque étape est construite en fonction du but à atteindre – analyse de l’espace ou comparaison d’interprétations. Du choix des descripteurs jusqu’au design graphique (types de représentation, couleurs, annotations) en passant par l’élaboration de chacun des graphiques, le musicologue se doit de maîtriser l’ensemble des étapes afin de travailler sur des outils méthodologiques fiables. De plus, ces représentations sont reproductibles29Reproductible, car le corpus, l’ensemble des données extraites et les méthodes sont identifiés précisément. et donc réfutables par les autres chercheurs.

La dernière représentation (figure 6) permet de mesurer la force de certains graphiques alliant concision et précision dans les détails. Les matrices d’autosimilarité sont particulièrement efficaces pour l’analyse de structures ou de formes musicales. Le fil de la vie de Pierre Henry est une œuvre de plus d’une heure créée en 2012 dans laquelle le compositeur se remémore ses sons et créations du passé : « Je marche lentement sur ce fil qui se déroule depuis trois quarts de siècle, mes yeux rampent chaque jour sur les milliers de morceaux analogiques à la recherche du “thème de la durée” » (Henry 2012, p. 5). L’œuvre est particulièrement ardue à analyser pour plusieurs raisons. La première est simplement le fait qu’elle soit électroacoustique et donc composée à partir de sons complexes qui rendent la mémorisation très difficile. C’est une œuvre dans laquelle il est très facile de se perdre lors de l’écoute. La deuxième raison est qu’elle contient un nombre important de références aux sons habituellement utilisés par le compositeur et aux œuvres de sa carrière. Cette mosaïque de références ou de presque références, véritable jeu de palimpsestes, rend très difficile à suivre ce fil de la vie. La troisième apparaît dans la thématique de l’œuvre : elle semble contenir l’ensemble d’une pensée créatrice sans qu’il soit possible d’en dénouer les éléments. La figure 6 offre une représentation complète de l’œuvre calculée à partir d’une transformation de Fourier rapide (FFT) ; le musicologue bénéficie ici d’un outil facilitant l’identification des parties et la navigation entre elles30La technique de lecture consiste à repérer les bandes verticales présentant une organisation uniforme et les comparer entre elles. en observant les motifs de chaque bande verticale pour en extraire les similarités. Les indices et les saillances apparaissent aussi bien au niveau de la forme que des structures plus fines à partir d’une étude audiovisuelle de cette macroscopie musicale. En comparant les différentes formes graphiques, il est possible de faire une première hypothèse quant à la forme globale (bande colorée en haut de la figure 6). Cette segmentation doit ensuite être confirmée ou non par l’écoute.

Figure 6 : <em>Le fil de la vie</em> de Pierre Henry (2012), représentation de la FFT sous la forme d’une matrice d’autosimilarité (bas) et premières hypothèses de segmentation (haut) par observation de la matrice.

Figure 6 : Le fil de la vie de Pierre Henry (2012), représentation de la FFT31La FFT a été calculée avec des réglages standards (taille de fenêtre : 2048 ; recouvrement : 75 % ; type de fenêtre ; hanning) et la matrice d’autosimilarité par distance euclidienne. sous la forme d’une matrice d’autosimilarité (bas) et premières hypothèses de segmentation (haut) par observation de la matrice.

Cette démarche associant la visualisation à l’écoute offre un progrès par rapport à l’écoute instrumentée qui est habituellement pratiquée par le musicologue. Les visualisations apportent bien plus d’informations qu’une forme d’onde ou un sonagramme. Elles provoquent et inquiètent l’écoute32François Bayle parle d’« écoute inquiétée » lorsque l’auditeur n’arrive pas à comprendre la source de ce qu’il entend dans une œuvre acousmatique (Bayle 2018). en poussant le musicologue à comprendre les similarités et dissimilarités qui ne semblent pas se confirmer à l’oreille. Cette part empirique du travail musicologique nécessite ensuite une formalisation plus précise afin de servir dans l’étude d’un large corpus.

 

Conclusion

Ce court article n’avait pas pour vocation de proposer une liste exhaustive de méthodes en musicologie numérique sur l’objet audiovisuel. Si la musicologie a toujours été interdisciplinaire, l’apport de l’informatique pousse le chercheur dans des retranchements jusqu’ici inexplorés. L’étude d’un fichier audio n’a que peu de rapport avec celle d’une partition, d’un texte théorique ou d’une image. De même, l’objet musical présent sur l’enregistrement est fort éloigné de cette symbolisation réduite que présente la partition. En cela, le fichier audio est très proche de la performance musicale, un objet temporel fuyant, parfois complexe et insaisissable sur certains corpus. J’ai tenté une démonstration des enjeux de l’étude de ces corpus dans lesquelles l’audio est la première source, que ce soit dans le domaine des musiques électroacoustiques de support, des interprétations enregistrées ou créées pour l’édition phonographique ou des enregistrements de terrain réalisés en ethnomusicologie. Le musicologue se trouve confronté à un dilemme : tenter d’appliquer à ce nouvel objet les méthodes éprouvées sur les partitions et les sources traditionnelles ou chercher une nouvelle approche méthodologique au risque de perdre la lisibilité de sa recherche en déportant son activité du nœud central de la musicologie – si tenté qu’il existe – vers ses frontières, voire vers d’autres nœuds extérieurs. Dans ma démarche, après avoir tenté, comme d’autres chercheurs, un transfert de méthodes peu satisfaisant, j’ai réalisé que l’étude des textes documentant la création ne faisait qu’effleurer le phénomène musical et j’ai plutôt choisi la seconde option en déportant ma recherche vers une démarche interdisciplinaire forte, c’est-à-dire en intégrant des méthodes profondément éloignées des sciences humaines, mais très proches de mon objet d’étude. Outre l’avantage d’être passionnante, comme le souligne à juste raison la conclusion de l’article de Jean-Michel Besnier (Besnier 2013, p. 30), cette indiscipline, particulièrement créative, résonne pour moi comme une rupture épistémologique. Comme le signalait Cook en 2005, intégrer ces nouveaux outils en musicologie nécessite non plus seulement de changer de méthode de travail, mais surtout de modifier en profondeur la nature même de son propre travail de chercheur (Cook 2005, p. 2). Cette modification de nature nous conduit à défricher des pistes qui nous réservent beaucoup de surprises et nous rapproche un peu plus d’une musicologie créative.

 

Bibliographie

Bachelard, Gaston ([1938]2011), La formation de l’esprit scientifique, Paris, Vrin.

Bachimont, Bruno (2013), « Préservation culturelle numérique », dans Évelyne Gayou (dir.), Musique et technologie. Préserver, archiver, re-produire, Portraits polychromes hors-série, Paris, Ina, p. 11-32.

Barkati, Karim, et Francis Rousseaux (2012), « How to Understand Digital Studio Outputs. The Case of Digital Music Production », 1st IFIP International Workshop on Artificial Intelligence for Knowledge Management (AI4KM), août, Montpellier, p. 151-169, https://hal.archives-ouvertes.fr/hal-01256590, consulté le 21 janvier 2020.

Barthes, Roland (1984), Le bruissement de la langue, Essais critiques IV, Paris, Le Seuil.

Bayle, François (2018), « La musique concrète est un enfant du théâtre et la radio d’essai fut son berceau », dans Albane Penaranda (prod.), France Culture.

Becker, Howard (2010), Les mondes de l’art, Paris, Flammarion.

Besnier, Jean-Michel (2013), « Seul le désordre est créateur. Pour en finir avec les bataillons disciplinaires », Hermès, vol. 67, p. 25-31.

Bonardi, Alain, et Francis Rousseaux (2011), « L’émergence de pratiques musicales a-musicologiques » Musiker-Cuadernos de mùsica, no 18, p. 99-115.

Bonardi, Alain, Serge Lemouton, et Laurent Pottier (2019), « Présentation du groupe de travail afim Archivage collaboratif et préservation créative », dans Journées d’informatique musicale, Bayonne, LaBRI, SCRIME, GDRI MIAMI, https://jim2019.sciencesconf.org/data/pages/BonardiLemoutonPottierWarnier.pdf, consulté le 15 juillet 2019.

Charaudeau, Patrick (2010), « Pour une interdisciplinarité “focalisée” dans les sciences humaines et sociales », Questions de communication, vol. 17, p. 195-222.

Clarke, Michael (2012), « Analysing Electroacoustic Music. An Interactive Aural Approach », Music Analysis, vol. 31, no 3, p. 347-380.

Cook, Nicholas (2005), « Towards the Compleat Musicologist », 6th International Conference on Music Information Retrieval, London, http://ismir2005.ismir.net/documents/Cook-CompleatMusicologist.pdf, consulté le 23 juin 2019.

Cook, Nicholas (2014), Beyond the Score, Oxford, Oxford University Press.

Couprie, Pierre (2016a), « EAnalysis. Developing a Sound Based Music Analytical Tool », dans Simon Emmerson et Leigh Landy (dir.), Expanding the Horizon of Electroacoustic Music Analysis, Cambridge, Cambridge University Press, p. 170-194.

Couprie, Pierre (2016b), « Voyage dans “Grandeur nature” », dans François Bayle (dir.), Son vitesse-lumière, Paris, Magisson, p. 47-57.

Couprie, Pierre (2018a), « Methods and Tools for Transcribing Electroacoustic Music », dans Sandeep Bhagwati et Jean Bresson (dir.), Proceedings of the International Conference on Technologies for Music Notation and Representation – TENOR’18, Montréal, Université Concordia, http://tenor-conference.org/proceedings/2018/02_Couprie_tenor18.pdf, consulté le 20 juillet 2019.

Couprie, Pierre (2018b), « Nouvelles approches audionumériques pour l’analyse musicale », Musicologies nouvelles, vol. 5, p. 120-132.

Coutellec, Léo (2015), « Pour une philosophie politique des sciences impliquées. Valeurs, finalités, pratiques », Presses de Sciences Po, no 51, p. 15-25.

Debussy, Claude (1894a), Prélude à l’après-midi d’un Faune, Berliner Philharmoniker, Simon Rattle (chef d’orchestre), EMI Classic 7243 5 58045 2 5.

Debussy, Claude (1894b), Prélude à l’après-midi d’un Faune, Orchestre de l’Opéra National de Paris, Philippe Jordan (chef d’orchestre), Naïve V 5332.

Debussy, Claude (1894c), Prélude à l’après-midi d’un Faune, Orchestre Nationale de Lyon, Jun Märkl (chef d’orchestre), Naxos 8.570775.

Henry, Pierre (2012), « Le Fil de la vie. Prologue – poème », programme du concert Pierre Henry Le Fil de la vie, samedi 29 septembre 2012, Paris, Philharmonie de Paris, p. 4-6.

Huutoniemi, Katri, et al. (2010), « Analyzing interdisciplinarity. Typology and Indicators », Research Policy, no 39, p. 79-88.

Kasavin, Ilya T. (2008), « L’idée d’interdisciplinarité dans l’épistémologie contemporaine », Diogène, n223, p. 38-57.

Magas, Michela, et al. (2013), Roadmap for Music Information Research, MIReS Consortium, http://hdl.handle.net/10230/21766, consulté le 12 juillet 2019.

Malt, Mikhail, et Emmanuel Jourdan (2015), « Le “BStD” – une représentation graphique de la brillance et de l’écart type spectral, comme possible représentation de l’évolution du timbre sonore », dans Xavier Hascher, Mondher Ayari, Jean-Michel Bardez (dir.), L’analyse musicale aujourd’hui, Paris, Delatour, p. 111- 128.

Miller, Raymond C. (1982) « Varieties of Interdisciplinary Approaches in the Social Sciences », Issues in Integrative Studies, no 1, p. 1-37.

Morin, Edgar (1994), « Sur l’interdisciplinarité », Bulletin interactif du Centre international de recherches et études transdisciplinaires, no 2, http://www.ciret-transdisciplinarity.org/bulletin/b2c2.php, consulté le 1er juillet 2019.

Nattiez, Jean-Jacques (2007), « Unité de la musique… unité de la musicologie ? », dans Jean-Jacques Nattiez (dir.), Musiques. Une encyclopédie pour le XXIe siècle, « Vol. 5. L’unité de la musique », Arles/Paris, Actes Sud/Cité de la musique, p. 1197-1211.

Perriault, Jacques (2002), L’accès au savoir en ligne, Paris, Odile Jacob.

Popper, Karl R. ([1959]1973), La logique de la découverte scientifique, Paris, Payot.

Resweber, Jean-Paul (2011), « Les enjeux de l’interdisciplinarité », Questions de communication, vol. 19, p. 171-200.

Risset, Jean-Claude (2010), « À propos d’interdisciplinarité. Synthèse, traitement, perception, musicologie et STIC, œuvre musicale et mixité », Journées d’informatique musicale, Rennes, Université de Rennes 2, http://jim10.afim-asso.org/actes/keynoteRisset.pdf, consulté le 28 juin 2019.

Rosnay, Joël de (1975), Le macroscope. Vers une vision globale, Paris, Seuil.

Schaeffer, Pierre (1966), Traité des objets musicaux, Paris, Seuil.

Schaeffer, Pierre (1971), De l’expérience musicale à l’expérience humaine, Paris, Richard-Masse.

Scott, Derek (1998), « Postmodernism and Music », dans Stuart Sim (dir.), The Routledge Companion to Postmodernism, Londres, Routledge, p. 106-115.

Selfridge-Field, Eleanor (2017), « A Topography and Taxonomy of Digital Musicology », Arti Musices, vol. 2, no 2, p. 215-225.

Serres, Michel (1992), Éclaircissements. Entretiens avec Bruno Latour, Paris, François Bourin.

Stévance, Sophie, et Serge Lacasse (2013), Les enjeux de la recherche-création en musique. Institution, définition, formation, Laval, Presses de l’Université Laval.

Urberg, Michelle (2017), « Pasts and Futures of Digital Humanities in Musicology. Moving Towards a “Bigger Tent” », Music Reference Services Quarterly, vol. 20, no 3-4, p. 134-150.

Ware, Colin (2000), Information Visualization. Perception for Design, San Francisco, Morgan Kaufmann Publishers Inc.

Zattra, Laura (2018), « Collaborating on Composition. The Role of the Musical Assistant at ircam, ccrma and csc », dans Friedemann Sallis et al. (dir.), Live-Electronic Music. Composition, Performance and Study, Abington, Routledge, p. 59-80.

Zattra, Laura, Orio, Nicola (2006), « ACAME – Analyse comparative automatique de la musique électroacoustique », Musimédiane, no 4, http://www.musimediane.com/numero4/LZattra/index.html, consulté le 8 juillet 2019.

 


PDF

RMO_vol.6.2_Couprie

Attention : le logiciel Aperçu (preview) ne permet pas la lecture des fichiers sonores intégrés dans les fichiers pdf.


Citation

  • Référence papier (pdf)

Pierre Couprie, « Quelques propos sur les outils et les méthodes audionumériques en musicologie. L’interdisciplinarité comme rupture épistémologique », Revue musicale OICRM, vol. 6, n2, 2020, p. 25-44.

  • Référence électronique

Pierre Couprie, « Quelques propos sur les outils et les méthodes audionumériques en musicologie. L’interdisciplinarité comme rupture épistémologique », Revue musicale OICRM, vol. 6, no 2, 2020, mis en ligne le 30 janvier 2020, https://revuemusicaleoicrm.org/rmo-vol6-n2/outils-et-methodes-audionumeriques/, consulté le…


Auteur

Pierre Couprie, Institut de Recherche en Musicologie (IReMus)/Sorbonne Université

Pierre Couprie est maître de conférences HDR et enseigne la pédagogie et les technologies numériques pour la recherche à Sorbonne Université. Il collabore depuis 2004 avec le Music, Technology and Innovation – Institute for Sonic Creativity (MTI2) de l’Université De Monfort (Angleterre) sur des projets de référencement et d’analyse de la musique électroacoustique. En 2015, il obtient le prix Qwartz Max Mathews de l’innovation technologique pour ses logiciels d’aide à l’analyse musicale (iAnalyse et EAnalysis). Il est aussi musicien improvisateur en électroacoustique au sein du collectif Les Phonogénistes et de l’Orchestre National Électroacoustique.

Notes

Notes
1 Je parlerai d’« interdisciplinarité » pour réunir les différentes pratiques de l’on nomme aussi « pluridisciplinarité », « multidisciplinarité » ou « transdisciplinarité ». Miller propose une signification de chacun de ces termes en les réunissant dans toutes les activités qui « juxtaposent, appliquent, combinent, synthétisent, intègrent ou transcendent deux ou plusieurs disciplines » (Miller 1982, p. 6). Si de nombreux écrits détaillent avec beaucoup de précisions ce que signifie chacun de ces termes, ces derniers ne prennent leur sens qu’au contact des objets d’étude et des méthodes employées pour la recherche plutôt que dans une définition précise, voire théorique, de leurs champs d’applications. Huutoniemi et al. relèvent les limites de ces études qui tendent à définir les formes de l’interdisciplinarité, d’une part, par des « catégories idéales » ou, d’autre part, par des indicateurs extérieurs sans ancrer la typologie sur les contenus mêmes de la recherche (Huutoniemi et al. 2010, p. 80). La typologie que propose les auteurs s’avère elle-même « idéale » puisque basée sur des données extraites de projets de recherche et non de recherches réelles. Ils mettent en évidence la distance qui existe bien souvent entre les intentions décrites dans ces projets qui répondent à des injonctions des institutions et la réalité du terrain (ibid., p. 86).
2 Date des premières publications dans des revues telles que le Computer Music Journal ou les conférences telles que l’International Computer Music Conference (ICMC).
3 Les ressources symboliques désignent ici le contenu encodé à partir de l’écriture musicale (partition, esquisse, annotations d’interprétation, etc.). Il existe de nombreux formats qui permettent d’encoder dans une syntaxe compréhensible par l’ordinateur tout ou partie d’une partition musicale.
4 Comme le projet Thesaurus Musicarum Germanicarum, http://www.iremus.cnrs.fr/fr/projets-de-recherche/tmg-thesaurus-musicarum-germanicarum (consulté le 15 juillet 2019).
5 Comme le projet Musiconis visant à étudier l’iconographie du son et de la musique au Moyen Âge, http://www.iremus.cnrs.fr/fr/base-de-donnees/musiconis (consulté le 15 juillet 2019).
6 L’objectif est ici de mettre en relation des données différentes extraites du même fichier audio ou des données de même type extraites de fichiers différents afin de faire émerger les corrélations ou les similarités. Les études sur l’interprétation permettent ainsi de corréler les variations d’intensité ou de tempo au phrasé musical afin d’étudier les variations d’interprétation chez plusieurs musiciens. Dans le domaine de la création contemporaine, les descripteurs sont particulièrement efficaces pour analyser la forme musicale ou mettre en évidence des typologies de gestes ou de morphologies.
7 Par exemple le projet Mazurka sur l’étude d’un corpus d’interprétations de mazurkas de Chopin (Cook 2014).
8 Incluant aussi bien l’acte créatif que l’acte d’interprétation sur tous les types de genres musicaux et incluant par conséquent les popular studies ou les corpus de l’ethnomusicologie. Ces méthodes englobent aussi les recherches visant à présenter la création contemporaine comme un acte collectif en intégrant donc les réalisateurs musicaux (RIM), les techniciens et l’ensemble des acteurs indispensables à l’acte créatif (Zattra 2018). Il est aussi possible d’aller jusqu’à inclure l’ensemble des professionnels qui concourt à l’acte créatif comme le propose Howard Becker dans son monde de l’art (Becker 2010).
9 Comme le projet d’archivage collaboratif et préservation créative (Bonardi, Lemouton et Pottier 2019).
10 Comme le projet GAMELAN (Barkati et Rousseaux 2012).
11 Par exemple, le projet Interactive Aural Analysis (Clarke 2012).
12 Ce problème est en train de devenir un enjeu majeur avec le développement des techniques d’apprentissage profond utilisés en intelligence artificielle. Ils nécessitent d’avoir d’importants jeux de données annotées sur lesquels les algorithmes comme les réseaux de neurones peuvent être entrainés. Ces big data existent dans le domaine de l’image et du texte ainsi que dans celui du répertoire récent des musiques populaires. Mais, en dehors de quelques applications commerciales (comme Shazam) ou quelques projets de recherche en apprentissage non-supervisé (comme les logiciels d’improvisation ou de composition automatique), le son et la musique reste encore le parent pauvre de l’intelligence artificielle.
13 Installer un environnement de développement, les packages de dépendances nécessaires à l’utilisation d’un script, préparer les fichiers audio pour être utilisables avec le script, faire tourner celui-ci, utiliser ensuite d’autres packages ou logiciels pour réaliser des visualisations de données restent très largement hors de portée d’un musicologue.
14 Dans la plupart des projets interdisciplinaires, les chercheurs en sciences exactes se contentent de déposer les codes sources de leurs réalisations sur des plateformes de de gestion de développement de logiciels. Si cela fonctionne avec leurs collègues directs, l’utilisation de ces codes reste très largement hors de portée des chercheurs en sciences humaines sans connaissance spécifique en informatique.
15 Ce transfert de méthodes était une étape essentielle à l’intégration du numérique en musicologie, mais il me semble maintenant plutôt relever d’un effet diligence (Perriault 2002, p. 53-54).
16 Les représentations musicales sont des visualisations de données provenant d’une analyse musicale comme la forme et les structures, l’évolution du timbre, les types d’articulations ou de morphologies, etc.
17 Voir, par exemple, le format réalisé dans le cadre du projet GAMELAN (Barkati et Rousseaux 2012).
18 Comme tous les formats, le musicologue peut travailler à partir d’une représentation fournie par le logiciel – par exemple, une partition générée à partir d’un fichier MEI – mais il sera limité dans les possibilités d’action, de recherche ou d’analyse. Ainsi, l’étude de corpus nécessitera bien souvent de passer directement par les fichiers sources et donc d’en comprendre leurs syntaxes.
19 L’adoption de formats d’échange, comme cité plus haut, reste encore très localisée dans certaines technologies ou logiciels. De plus, la mise en relation de données provenant de sources de différents types est toujours difficile à réaliser. Ceci problème a déjà été étudié à travers les flux de travaux (workflows) en analyse musicale (voir Couprie 2018b).
20 Les descripteurs audio permettent d’extraire des informations du signal audio comme l’amplitude, la brillance, l’inharmonicité, etc. Pour des informations plus détaillées, voir Couprie 2016b et Couprie 2018b.
21 L’amplitude RMS (root mean square ou valeur efficace) est une mesure de l’amplitude sur un intervalle de temps donné.
22 La robustesse d’un algorithme désigne sa stabilité et sa fiabilité. Un algorithme peu robuste ne permettra pas d’obtenir un résultat fiable à 100 %.
23 Le coefficient de corrélation linéaire ou la corrélation hiérarchique calculée sur le coefficient de corrélation de Pearson (par exemple : http://www.mazurka.org.uk/ana/timescape, consulté le 8 juillet 2019). Ce dernier étant particulièrement adapté à l’étude de données à différents niveaux hiérarchiques (Cook 2014, p. 187-188).
24 L’écart-type ou la variance sont généralement intégrés au calcul des descripteurs audio.
25 Par exemple, la moyenne arithmétique ou la moyenne quadratique. Cette dernière est adaptée aux calculs portants sur les amplitudes.
26 Cet enjeu a été traité à travers le développement du logiciel EAnalysis, véritable laboratoire d’expérimentations sur la visualisation de données et la représentation musicale (Couprie 2016a et 2018a).
27 Dans ce cas, il sera nécessaire d’aligner les données sur le plan temporel avec un algorithme d’alignement dynamique temporel (DTW). Voir Zattra et Orio (2006) pour un exemple d’analyse comparative de ce type.
28 Les exemples présentés dans cette partie ont tous été réalisés avec la version 5 du logiciel iAnalyse disponible sur http://ianalyse5.pierrecouprie.fr (consulté le 16 juillet 2019).
29 Reproductible, car le corpus, l’ensemble des données extraites et les méthodes sont identifiés précisément.
30 La technique de lecture consiste à repérer les bandes verticales présentant une organisation uniforme et les comparer entre elles.
31 La FFT a été calculée avec des réglages standards (taille de fenêtre : 2048 ; recouvrement : 75 % ; type de fenêtre ; hanning) et la matrice d’autosimilarité par distance euclidienne.
32 François Bayle parle d’« écoute inquiétée » lorsque l’auditeur n’arrive pas à comprendre la source de ce qu’il entend dans une œuvre acousmatique (Bayle 2018).

ISSN : 2368-7061
© 2024 OICRM / Tous droits réservés