PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

117
Mémoire de fin d'études École Nationale Supérieure Louis Lumière Promotion 2018 Section Son Salomé BENOIST PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR DÉTOURNEMENT D'EFFETS APPLIQUÉS À LA VOIX Directeur interne  : Pascal Spitz Directeur Externe : Charles Michaud Rapporteur  : Jean Rouchouse

Transcript of PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Page 1: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Mémoire de fin d'études

École Nationale Supérieure Louis LumièrePromotion 2018

Section Son

Salomé BENOIST

PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR DÉTOURNEMENT

D'EFFETS APPLIQUÉS À LA VOIX

Directeur interne : Pascal Spitz

Directeur Externe : Charles Michaud

Rapporteur : Jean Rouchouse

Page 2: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

REMERCIEMENTSUn grand merci à ...

1

Yohan BOISGONTIER, pour avoir été mon co-producteur et un ami de bon conseil.

Aloyse LAUNAY, pour son coaching vocal et son aide sur la composition.

Benoît FLEURY, pour sa disponibilité et son soutien.

Pascal SPITZ et Charles MICHAUD, pour m'avoir soutenue en tant que directeurs de

mémoire.

Caroline ROUZAUD et Philippe BENOIST pour leur appui et leur réconfort.

Et enfin, merci au Club du CDI pour sa présence quotidienne et son assistance

morale.

Page 3: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

RÉSUMÉ

M'interrogeant sur la portée des efets appliqués à la voix, c'est-à-dire

des traitements sonores qui font fit de la transparence et altèrent la source

de manière évidente, mon désir pour ce mémoire était de créer une pièce de

musique électronique intégrant cette réflexion. J'y démontre que ces

derniers peuvent transformer la texture et l'élocution du chant et ainsi en

faire de nouveaux moyens expressifs. Les efets que j'utilise sont obtenus par

détournement des modules de la suite Izotope RX, destinés principalement

au nettoyage et à la réparation d'enregistrements. Le détournement est un

vecteur majeur de création en musique. Par ce procédé, j'espère ainsi

obtenir des matières sonores inédites à inclure dans ma composition.

Néanmoins, je souhaite ancrer ma production dans la pratique populaire

musicale. Ainsi, je cherche à la rendre plaisante à l'écoute et compréhensible

intuitivement, sans nécessité d'intellectualisation, tout en tentant de

transmettre par tous les aspects de la composition les sentiments exprimés

par les paroles de ce morceau.

Réussirais-je à communiquer des émotions grâce à l'usage de ces

nouveaux efets tout en proposant une pièce musicale répondant aux codes

de la création actuelle ?

Mots-clés :

musique électronique – voix – efets sonores – composition – détournement

– Izotope RX

2

Page 4: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ABSTRACT

As I was questioning myself about the scope of efects applied to voice,

which are sound treatments that don't bother about transparency and

obviously alter the source, I desired for this Master's thesis to create a

electronic music piece which integrate this reflection. I explain that they can

transform the texture and the elocution of the voice into new expressive

means. The efects I use are obtained by hijacking the Izotope TX plug-ins,

mainly intended for cleaning and repairing records. Hijacking is a major

vector in musical creation. By this process, I hope to obtain new sound

materials to include in my composition. Nevertheless, I wish to anchor my

production in popular musical practice. Thus, I try to make it pleasant to

listen and intuitively understandable, without the need for

intellectualization, while trying to convey through all aspects of the

composition the feelings expressed by the lyrics of this piece.

Would I succeed in communicating emotions through these new

efects while ofering a musical piece that meets the codes of the current

production ?

Keywords :

electronic music – voice – sound efects – composition – hijacking – Izotope

RX

3

Page 5: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

TABLE DES MATIÈRESREMERCIEMENTS.......................................................................................................... 1

RÉSUMÉ........................................................................................................................ 2

ABSTRACT..................................................................................................................... 3

TABLE DES MATIÈRES.................................................................................................... 4

INTRODUCTION.............................................................................................................6

I. LES ENJEUX DU DÉTOURNEMENT, DES EFFETS, ET DE LEUR APPLICATION À LA VOIX. .8

1) LE DÉTOURNEMENT DES OUTILS, VECTEUR DE NOUVEAUTÉ EN MUSIQUE.................9a – Premiers détournements technologiques, les expérimentations des musiciens savants............................................................................................................................ .10

b – Le détournement des traitements du son, une afaire d'ingénieur du son .........15c – Bricolage et sérendipité en musique électronique, l'afaire de tous.....................20

2) ANALYSER LA VOIX ET SES TRAITEMENTS..................................................................... 26a – L'efet, renfort de la signification ........................................................................... 26b – L'inquiétante étrangeté de la voix traitée............................................................... 30c – « Le grain de la voix » et la recherche d'une approche intuitive............................35

3) INTRODUCTION DE LA VOIX DANS LA MUSIQUE ÉLECTRONIQUE PAR L'USAGE D'EFFETS............................................................................................................................ 39

a – La représentation de l'humanoïde par l'autotune et le vocodeur........................40b – L'expression des sentiments par l'usage de l'efet................................................45

II. PROPOSITION D'UN NOUVEL EFFET APPLIQUÉ À LA VOIX OBTENU PAR DÉTOURNEMENT.................................................................................................................... 52

1) LES PRÉMICES DE LA CRÉATION.................................................................................... 53a – Présentation de la suite Izotope RX........................................................................ 53b – Essais pour l'obtention de nouvelles textures avec la suite Izotope RX...............59c – Les acteurs de la création........................................................................................ 65d – Le choix du thème et des paroles........................................................................... 68

2) RÉALISATION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE..........................................73a – La création de la première maquette..................................................................... 73b – Les ajustements et le choix de la structure............................................................ 76c – Le travail sur la voix................................................................................................. 79d – Le mixage................................................................................................................. 84

4

Page 6: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

III. CRITIQUES ET RÉFLEXIONS AUTOUR DU RÉSULTAT...................................................... 87

1) LA MISE EN PLACE DU QUESTIONNAIRE....................................................................... 88

2) RETOURS DU PUBLIC SUR LA CRÉATION...................................................................... 90a – Retours généraux..................................................................................................... 90b – Les émotions ressenties.......................................................................................... 91c – La compréhension et l'appréciation de l'efet.......................................................92d – La reconnaissance des influences.......................................................................... 94

CONCLUSION...............................................................................................................96

BIBLIOGRAPHIE......................................................................................................... 100

DISCOGRAPHIE.......................................................................................................... 102

TABLE DES ILLUSTRATIONS....................................................................................... 103

ANNEXES................................................................................................................... 104

5

Page 7: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

INTRODUCTIONM'interrogeant sur la portée des efets appliqués à la voix, c'est-à-dire

des traitements sonores qui font fit de la transparence et altèrent la source

de manière évidente, mon désir pour ce mémoire est de créer une pièce de

musique électronique intégrant cette réflexion. Cette création représente un

défi car je suis néophyte en la matière, mais cette expérience me permettra

d'aborder sans à priori toutes les dificultés liées à ce processus. De plus,

j'obtiendrai mes efets par détournement des fonctions de la suite de

modules Izotope RX, destinée principalement au nettoyage et à la réparation

d'enregistrements.

Le détournement est un vecteur majeur de création en musique qui a

permis de nombreuses innovations autant artistiques que techniques. Par ce

procédé, j'espère obtenir de nouvelles textures dont l'originalité permettrait

de se soustraire des préconceptions concernant les efets les plus connus,

notamment l'auto-tune et le vocodeur. Cependant, je chercherai à introduire

ces matières sonores inhabituelles dans une production musicale ancrée

dans la culture populaire. Ainsi, je m'eforcerai de rendre cette pièce

musicale plaisante et compréhensible intuitivement, sans nécessité de

l'intellectualiser. Je pense d'ailleurs que l'usage d'efets appliqués à la voix

peut aider à transmettre des émotions de manière instinctive.

Ainsi, je me demande simplement ce qu'il va résulter de cette création.

Réussirais-je à exprimer des émotions grâce à l'usage de ces nouveaux efets

tout en proposant une pièce musicale répondant aux codes de la création

6

Page 8: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

actuelle ?

Je commencerai donc par étudier comment le détournement des

technologies permet d'innover en musique, avant de m'interroger sur les

techniques d'analyse de la voix dans la musique électronique et électro-

acoustique, puis d'examiner des exemples dans lesquels les efets appliqués

à la voix ont permis de compenser la perte d'expression vocale de la

production actuelle. Dans une seconde partie et à la lumière de ces

recherches, j'expliquerai la réalisation de ma partie pratique de mémoire, de

ses prémices à son aboutissement et je me questionnerai sur la réussite de

ce projet en m'appuyant sur les retours du public.

7

Page 9: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

I. LES ENJEUX DU

DÉTOURNEMENT, DES EFFETS,

ET DE LEUR APPLICATION À LA

VOIX

8

Page 10: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

1) LE DÉTOURNEMENT DES OUTILS : VECTEUR

DE NOUVEAUTÉ EN MUSIQUE

Il est dificile d'établir une frontière fixe entre musique savante et

musique populaire sans porter un jugement de valeur à l'une de ces deux

approches. De plus, il n'existe pas de rupture technologique majeure entre

elles, les outils électroniques étant souvent les mêmes malgré des interfaces

d'utilisation diférentes. On pourrait tenter de définir la musique populaire

par sa tendance à se standardiser, les compositeurs essayant de s'inscrire

dans un courant musical pour être reçu par son public, et à l'inverse la

musique savante comme la possibilité d'innover du tout au tout à chaque

composition1. Cependant, dans les deux approches musicales, on trouve des

acteurs qui n'ont cessé d'inventer de nouvelles technologies et de nouvelles

manières de les utiliser, s'inspirant les uns les autres et procédant de

manière similaire. En efet, beaucoup de détournements technologiques

sont nés par sérendipité, soit le fait d'efectuer des découvertes par hasard,

mais cela n'exclut pas que certains détournements aient été efectués

consciemment dans le but de créer de nouvelles sonorités. Dans tous les cas,

les musiciens et ingénieurs du son se sont servis des machines qui les

entouraient pour y procéder.

Néanmoins, une manière intéressante d'aborder la distinction entre

musique populaire et savante est celle de Schönberg, qui voit la diférence se

1 Bruno Bossis, La voix et la machine, Rennes, Presse universitaire de Rennes, 2005, p.233

9

Page 11: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

situer dans l'idée de composition logique ou instinctive2. Ainsi, la musique

savante serait intellectualisée à priori, chercherait à être objective et à faire

avancer la recherche musicale tandis que la musique populaire serait de

l'ordre de l'intuitif, on y chercherait plus volontairement un plaisir

esthétique avant de s'intéresser à la signification que chaque élément en son

sein pourrait porter. Le détournement, vecteur de création dans ces deux

cas, répond donc à des nécessités diférentes.

a – Premiers détournements technologiques, les

expérimentations des musiciens savants

Une autre diférence entre les approches savante et populaire est que

les musiciens savants se sont rapidement fait construire des studios-

laboratoires pour y travailler avec des scientifiques leur mettant au point des

outils dédiés à leur composition, évitant les balbutiements des premiers

détournements d'outils, chose qui n'a pas eu lieu pour la musique populaire.

On peut citer à cet efet le studio de musique électronique de Cologne fondé

en 1951, le GRMC (Groupe de Recherche Musicale Concrète) qui devient de

GRM en 1958, le studio de phonologie de Milan, spécialisé en musique

électroacoustique, en 1955 et l'Ircam (Institut de Recherche et Coordination

Acoustique/Musique) en 1969. D'ailleurs, dès 1933, Edgard Varèse écrit à la

fondation Guggenheim et aux laboratoires Bell espérant obtenir des fonds

pour construire le premier studio de musique électronique. Comme pour lui,

il devient indispensable aux visionnaires Karlheinz Stockhausen, Luciano2 Arnold Schöenberg, Le style et l'idée, écrits réunis par Léonard Stein et traduits de

l'anglais par Christiane de Lisle, Paris, Buchet/Chastel, 1977, p.89

10

Page 12: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Berio, Pierre Schaefer, Pierre Henry et Pierre Boulez de travailler dans des

studios dédiés pour avoir accès aux machines nécessaires à la composition

de musique électronique et électroacoustique. Cet état de fait se simplifiera

avec l'évolution des ordinateurs et la possibilité de composer sur sa station

de travail audionumérique personnelle, mais ils feront toujours appel à ces

studios-laboratoires pour qu'ils développent des logiciels et outils dédiés.

Néanmoins, avant la construction de ces lieux de recherche, les

musiciens ont du se débrouiller par eux-mêmes pour innover. Par manque

de moyens, ils ont ainsi du détourné les machines qu'ils avaient à

disposition. La première pièce de musique électroacoustique, Imaginary

Landscape No1, est composée par John Cage en 1939 alors qu'il travaillait

dans un studio de radio à Seattle. Elle est écrite pour quatre

instrumentistes : un percussionniste qui joue de la cymbale chinoise (dont

les bords sont recourbés), un pianiste qui gratte les cordes du piano et en

éteint le son avec sa main et les deux autres joueurs qui sont assignés à des

platines vinyles jouant des disques Victor Frequency Record. Ces

enregistrements étaient constitués de notes constantes ou même de

fréquences pures et étaient destinés à tester la bande passante des

appareils. En plus de détourner ces disques, John Cage fait varier la vitesse

de lecture entre trente-trois et soixante-dix-huit tours par les exécutants

pour modifier la hauteur de ces sons. Dans sa composition Imaginary

Landscape No3, écrite pour six percussionnistes, il ajoutera aux platines

difusant des notes uniques des générateurs de fréquences, plus maniables,

des buzzers (sonnettes), et une bobine de fil amplifiée attachée au bras d'un

phonographe. Cette dernière technique lui avait été montrée par un bruiteur

11

Page 13: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

radiophonique.

Ainsi, en mêlant instruments de musique et appareils électriques,

John Cage fonde les bases de la musique électroacoustique. On remarque

qu'il a été inspiré par son environnement, en détournant des éléments du

studio où il travaillait. En 1941, John Cage tente lui aussi de fonder un centre

de musique expérimentale, chose qui finalement ne sera rendue possible

qu'après la guerre. La génération de fréquences sera très utilisée par la suite

pour construire les premiers synthétiseurs électroniques, qui ne se limiteront

plus à une simple sinusoïde et dont chaque note de la gamme est créée par

un générateur. En cela, John Cage était le premier à intégrer cette technique,

ou du moins cette idée, dans la musique.

Un second pionnier dans ce domaine qui a aussi mené ses

expérimentations dans un studio radiophonique est Pierre Schaefer. En

1948, il est à la tête d'une petite équipe de recherche au sein de l'ORTF

(Ofice de Radiodifusion-Télévision Française) et s'adonne à des

enregistrements expérimentaux de bruits dans le but de créer une pièce

musicale à partir de cela. Dans le livre À la recherche d'une musique concrète

qui compile notamment ses journaux, il raconte comment lui vient

progressivement l'idée de sa première pièce concrète Étude aux chemins de

fer. Tout d'abord, il essaye d'utiliser bon nombre d'accessoires de bruitage

disponibles à l'ORTF mais les trouve trop explicites. Au cours de

l'enregistrement de ces éléments divers, il remarque qu'ayant coupé

l'attaque d'une cloche par erreur, il n'est plus possible de reconnaître

l'origine du son. C'est à ce moment qu'il décide de rester en régie plutôt

12

Page 14: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

qu'en studio pour expérimenter ces suppressions d'attaque du son, jouant

aussi à remonter leur niveau pendant leur déclin. Il se prend ainsi à rêver

d'un clavier qui pour chaque touche déclencherait la lecture d'un de ces

sons de cloche sachant qu'il a enregistré une note diférente par disque –

inventant au passage le concept du mellotron. Abandonnant ses rêveries

pour le « piano le plus général qui soit 3 », il réalise finalement qu'il vient tout

de même de créer quelque chose de nouveau : « [l'invention s'est produite]

quand j'ai touché le son des cloches. Séparer le son de l'attaque constituait

l'acte générateur. Toute la musique concrète était contenue en germe dans

cette action proprement créatrice sur la matière sonore. 4» Pierre Schaefer

qui tentait jusqu'alors d'écrire de la musique par le bruit va dorénavant

l'écrire par le son. La musique concrète était née, du moins en idée, et

contrairement aux autres genres musicaux elle ne désigne plus le matériau

sonore qui la compose mais se définit par le geste du détournement. Pierre

Schaefer ajoute cependant : « Je n'ai aucun souvenir particulier de l'instant

ou cette prise de son a été réalisée. La trouvaille est d'abord passée

inaperçue. 5» En efet, la première coupe d'un son par Pierre Schaefer était

une erreur, il va pourtant développer cette technique se mettant en tête de

créer une pièce musicale pour locomotives.

Par la suite, il composera ses œuvres à l'aide de bandes magnétiques

préenregistrées en jouant sur les coupes, la vitesse de lecture pour modifier

la hauteur du son et la mise en boucle de certains extraits. Il va aussi

inventer la technique du sillon fermé qui consiste à graver sur un disque les

3 Pierre Schaeffer, À la recherche d'une musique concrète, Paris, Éditions du Seuil, 1952, p.16

4 Pierre Schaeffer, Ibid., p.165 Pierre Schaeffer, Ibid., p.16

13

Page 15: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

sillons en cercle et non en spirale ce qui permet de jouer un son

indéfiniment, l'idée provenant du dernier sillon des vinyles qui boucle sur

lui-même. Ces pratiques ont aujourd'hui investi largement la musique

populaire sous le nom de sample (littéralement « échantillon ») et de la

fonction loop (mise en boucle) intégrée comme fonction de base sur les

stations de travail audionumériques. Il n'est pas rare aujourd'hui d'entendre

des morceaux dont la rythmique est issue de sons concrets mis en boucle,

notamment dans le genre trip-hop, juste héritage des expérimentations de

Schaefer.

John Cage et Pierre Schaefer ont tout deux été des pionniers en terme

de recherche musicale ayant pour point commun d'avoir détourné des

machines de leur fonction pour arriver à leurs fins. Le premier commence

par détourner un objet sonore, le disque de fréquence, avant de détourner le

medium, la platine vinyle qui devient un instrument pour l'exécution de la

pièce. Le second détourne d'abord le medium, en lançant l'enregistrement

trop tard par erreur, avant de décider d'y enregistrer des sons inhabituels.

Ainsi John Cage a souvent considéré comme secondaire l'utilisation de

l'électronique dans sa musique, tous les sons existants étant susceptibles

d'entrer dans sa composition. Dans les deux cas, leurs expériences ont

fortement influencé l'évolution de la musique, même après l’avènement des

musiques expérimentales et concrètes. Cependant, au-delà de la naissance

de nouveaux genres musicaux et de nouveaux instruments, ce n'est pas dans

la musique savante qu'on trouve le plus de tâtonnements en terme de

traitements et d'efets appliqués au son, bien que leur utilisation se

développe grâce aux logiciels inventés en laboratoires. Le haut-lieu du

14

Page 16: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

détournement des technologies dans ce domaine se trouve à Londres, dans

les années soixante.

b – Le détournement des traitements du son, une affaire

d'ingénieur du son

En 1962, Geof Emerick intègre le studio EMI de Londres à l'âge de

seize ans et assiste aux premières séances des Beatles en tant que stagiaire,

aux côtés du producteur George Martin et de l'ingénieur du son Norman

Smith. À cette époque, le groupe joue encore en live (en direct tous

ensemble) dans le studio et ne ré-enregistre que très peu de parties à

postériori. Les micros sont placés par des techniciens en blouse blanche

sous les directives de l'ingénieur, qui doit suivre les règles strictes établies

par la maison de disque en terme d'enregistrement. Après être passé aux

postes d'assistant à l'enregistrement, de graveur de disque acétate et

d'ingénieur de mastering, Geof Emerick obtient la place de Norman Smith

en 1966 et enregistre Revolver, le septième album des Beatles. Dès ce

premier album en tant qu'ingénieur du son, il n'hésite pas à enfreindre

toutes les règles d'EMI quant à l'enregistrement et au traitement des

sources. Heureusement, il sera protégé par la notoriété des Beatles qui

l'encourageront dans ses expérimentations.

Ainsi, le jeune ingénieur du son âgé de seulement dix-neuf ans conçoit

les bases de la prise de son et du mixage analytiques actuels. Il commence

par rapprocher et multiplier le nombre de micros sur la batterie en plaçant

15

Page 17: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

deux overheads6, un micro caisse claire et un micro grosse caisse. Il propose

d'ailleurs de mettre un pull épais dans celle-ci pour la rendre plus mate, elle

se diférencie alors mieux des toms et devient plus percutante. Les micros

des autres instruments sont aussi placés avec plus de proximité ce qui

l'oblige à compresser ses sources pour retrouver une dynamique équivalente

au placement lointain des micros. Néanmoins, il poussera la compression et

utilisera même des limiteurs à des fins esthétiques et pour donner la

sensation que tous les instruments sont plus proches.

Grâce à ces infractions aux bonnes manières selon EMI, le son des

Beatles ne ressemble déjà plus à aucun autre, mais Geof Emerick ne s'arrête

pas là et détourne tout ce qui peut l'être dans le studio. Par exemple, il utilise

un magnétophone pour créer un efet d'écho sur bande, le studio ne

possédant pas encore de machine dédiée, en se servant de la distance entre

la tête d'écriture et la tête de lecture pour créer le délai nécessaire. Cette

technique est déjà utilisée depuis le début des années cinquante aux États-

Unis, notamment par Les Paul ce qui lui permet de considérablement étofer

le son de sa guitare. Cependant, Geof Emerick ajoute à cela le retrait de la

tête d'efacement et réinjecte directement le signal de sortie du

magnétophone en entrée jusqu'au point de faire saturer la bande, tandis

que Les Paul ne faisait que doubler légèrement sa guitare. On entend ce son

caractéristique sur la fin des couplets de Paperback Writer.

Une autre des techniques qu'il invente, mais qu'il n'utilisera que sur

une seule chanson, est l'utilisation d'un haut-parleur dynamique pour

6 Couple de microphones qui se place en général au dessus de la batterie, au niveau des cymbales.

16

Page 18: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

enregistrer les fréquences très graves de la basse. Frustré que le son de Paul

McCartney ne ressemble pas tout à fait à celui des productions américaines,

il évoque cette idée avec George Martin qui le prend d'abord pour un fou. Il

en fait ensuite part à l'un des ingénieurs de maintenance, plus ouvert à la

discussion sur ce sujet, qui lui fournira un haut-parleur avec les connectiques

nécessaires pour le brancher sur une entrée micro. En efet, le principe de

construction d'un haut-parleur est le même que celui d'un micro

dynamique, ils consistent tous deux en l'enroulement d'une bobine autour

d'un aimant fixé à une membrane. Dans un cas, la variation de courant

électrique traversant la bobine fait osciller l'aimant et de ce fait la

membrane pour produire du son tandis que dans le second cas, c'est

l'oscillation de la membrane, et donc de l'aimant, qui produit une variation

de courant dans la bobine. Cette technique de prise de son est encore

utilisée aujourd'hui, notamment sur les contrebasses, pour en obtenir les

sons les plus graves sans avoir besoin de les remonter artificiellement lors

du mixage.

Geof Emerick expérimente aussi beaucoup de traitements sur les voix

des Beatles au cours des diférents albums. Pour son premier enregistrement

avec eux sur la chanson Tommorow Never Knows, John Lennon déclare qu'il

veut que sa voix sonne « comme celle du Dalaï-Lama chantant en haut d'une

montagne 7». Pour répondre à ce désir, il décide de faire passer la voix du

chanteur dans une cabine Leslie, efet qui était jusqu'alors réservé à des

claviers pour en obtenir des trémolos convaincants. Plus tard, sur

l'enregistrement de I Am The Walrus, il saturera le préamplificateur de la

7 Geoff Emerick, En studio avec les Beatles (Here, There and Everywhere: My Life Recording the Music of the Beatles, 2006), Gémenos, Le mot et le reste, 2009, p.174

17

Page 19: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

console, outrage suprême aux règles de la maison de disque, et fera chanter

John dans un vulgaire micro d'ordre, celui-ci lui demandant une voix

« paraissant venir de la lune 8».

Un autre procédé imaginé par l'ingénieur Ken Townsend fait son

apparition sous la demande du groupe, il s'agit de l'Automatic Double

Tracking (le doubleur de piste automatique). Cet appareil permet de doubler

automatiquement une prise vocale en décalant cette dernière de quelques

millisecondes pour éviter aux chanteurs d'avoir à chanter deux fois, ce que

détestaient faire les Beatles. Néanmoins, ce procédé avait déjà été utilisé

manuellement par Geof Emerick sur la piste de cuivres de Got To Get You

Into My Life car il trouvait que la section n'était pas assez fournie. Le Vari-

Speed (variateur de vitesse) est également inventé pour satisfaire les

Beatles. Il leur arrivait déjà d'enregistrer certaines parties à demi-vitesse du

défilement de la bande pour altérer le timbre d'instruments (technique

développée par George Martin en doublant les solos de guitare par un piano

à demi-vitesse). Dès Sgt. Pepper's Lonely Hearts Club Band, ils contrôlent

entièrement ce paramètre grâce à son réglage continu ce qui leur permet par

exemple de modifier le timbre de la voix de John Lennon dans les couplets

de Lucy in the Sky with Diamonds, qui semble ainsi plus aigu et lui donne un

air ingénu.

Il y aurait encore des dizaines d'expérimentations sonores à décrire

découlant des enregistrements des Beatles dont certaines ont d'ailleurs été

infructueuses et rapidement abandonnées – comme par exemple l'idée

d'enregistrer une voix en plaçant un micro dans une bouteille remplie d'eau,8 Geoff Emerick, Ibid., p.322

18

Page 20: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

protégé par un préservatif, technique utilisée aujourd'hui dans d'autres cas

mais qui à l'époque était extrêmement dangereuse étant donné que les

micros étaient encore alimentés sous 240 Volts. Ce qu'on peut tout de même

retenir de ces tentatives est que nombreuses ont été celles qui ont fait

progressé les techniques d'enregistrement, bien qu'au moment où elles ont

été réalisées, Geof Emerick mettait en péril sa carrière pour chacune d'elle

tant le règlement en vigueur était rigide.

Finalement, lorsqu'il détourne une machine de sa fonction, que ce soit

une console, un magnétophone ou un micro, c'est qu'il cherche une nouvelle

coloration à donner au son, chose qui était dificile à l'époque car la gamme

d'efets disponibles était limitée. Contrairement à Pierre Schaefer, Geof

Emerick efectue tous ses détournement consciemment, pour innover mais

aussi pour rendre son travail ludique. Il raconte d'ailleurs qu'il s'était fixé

pour défi de ne jamais enregistrer un piano deux fois de la même manière.

Toutes ses découvertes ont ouvert la voie à une plus grande liberté de prise

de son et de traitements et à la spécification du mixage en fonction du style

musical. En efet, on n'imagine plus aujourd'hui devoir obéir à une seule

technique de prise et de traitement du son, au rendu plutôt naturel, pour

enregistrer tous les genres musicaux. De la même manière, Geof Emerick

s'est insurgé le premier contre ce principe, et à la vue du flot d'innovations

musicales que déversaient les Beatles, il est sans doute tombé sur le groupe

célèbre qui se prêtait le mieux à ses expérimentations.

Par la suite, il a été plus facile de modifier les sons pour les rapprocher

d'une esthétique voulue car les technologies ont évolué en conséquence. Il

19

Page 21: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

est même aujourd'hui possible d'obtenir des résultats sonores semblables

tout en utilisant des traitements ou techniques diférentes. Pourtant, le

détournement existe toujours, pour bien des raisons et bien des usages.

c – Bricolage et sérendipité en musique électronique, l'affaire

de tous

Il est dificile de décrire l'arrivée du genre « électronique » dans la

musique populaire tant ses origines sont multiples et sa qualification vague.

Dans son Dictionnaire de la Musique, l'édition Larousse définit la musique

électronique par : «Nom donné, d'une manière très générale, à toutes les

musiques utilisant pour leur composition, leur réalisation ou leur exécution,

des appareils électroniques (instruments, synthétiseurs, magnétophones,

ordinateurs, etc.), et, dans un sens plus particulier, à la musique

spécifiquement composée sur bande magnétique (on dit alors en français,

plus communément, musique électroacoustique). Enfin, dans un sens

restreint et localisé, cette expression désigne la musique créée

exclusivement avec des sons électroniques de synthèse, à l'exclusion de

toute source dite « concrète ». » En s'en tenant à la première partie de cette

définition, on pourrait considérer quasiment toutes les musiques composées

aujourd'hui comme étant électroniques, ce qui ne permet pas de discriminer

eficacement ce à quoi on souhaite se référer. Cependant, avec la deuxième

partie de cette définition, il conviendrait d'exclure bon nombre de morceaux

étant pourtant réputés pour faire partie de ce genre. On peut penser

notamment aux morceaux contenant de la voix ou intégrant ponctuellement

20

Page 22: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

un instrument acoustique. En ce qui concerne son origine, plusieurs courants

musicaux électroniques sont apparus un peu partout dans le monde,

relevant souvent d'une culture « underground » (culture alternative), et

parfois sans même s'être inspirés les uns des autres. En efet, beaucoup de

ces premières productions étaient réalisées avec très peu d'argent, hors des

circuits de distribution et de médiatisation habituels et ne dépassaient donc

pas les frontières nationales, voire même les frontières des villes.

Cependant, une des caractéristiques communes à ces courants

musicaux est l'abondance du mésusage, de l'abus et parfois même du

détournement des technologies employées dans le but de renouveler la

création, ou parfois même tout simplement de créer lorsque des outils

dédiés sont trop chers. Par exemple, avant que des musiciens électroniques

ne jouent leurs compositions, les discothèques étaient uniquement animées

par des DJ's (Disc-jockeys) qui passaient les vinyles célèbres de l'époque.

Soucieux que le public ne cesse de danser et que la tension monte tout au

long de la nuit, les DJ's passaient des extraits de plus en plus courts, de plus

en plus rapides et n'étant parfois qu'instrumentaux pour encourager

l'immersion musicale des danseurs. Au début des années quatre-vingt, le DJ

Frankie Knuckles devint célèbre en complétant ses platines d'une boîte à

rythme bon marché pour enrichir ses disques de disco, il sera ainsi le

pionnier de la House Music à Chicago. À cette époque, les boîtes à rythme

n'étaient destinées qu'à figurer sur les maquettes de musiciens ou à

accompagner en concert les groupes manquant d'un batteur. Leur son était

très sommaire, ne ressemblant finalement que très peu à un véritable kit de

batterie acoustique. Néanmoins, ces mauvaises imitations vont forger le son

21

Page 23: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

de la musique électronique qui va se nourrir abondamment des erreurs de

ses machines.

De cette même manière, le Roland TB-303, synthétiseur et séquenceur

de basse, sera à l'origine du courant de l'Acid-House au milieu des années

quatre-vingt. Ce dernier avait pour but d'aider les guitaristes solistes en

s'accompagnant d'une ligne de basse, mais il devint rapidement obsolète

tant son rendu est éloigné d'un son de basse réelle. Les compositeurs se sont

ainsi emparés de cet outil quelques années après, lorsqu'il était facile d'en

trouver en occasion à des prix très bas, et ont poussé la machine dans ses

retranchements pour en obtenir ce son dit « acide ». En outre, la

programmation des séquences était très dificile et le résultat obtenu était

souvent éloigné de ce que les musiciens avaient essayé d'entrer dans la

machine, d'autant plus qu'en enlevant les batteries de l'appareil trop

longtemps, les séquences enregistrées avaient tendance à se modifier

aléatoirement. Ces défauts ont ainsi permis aux musiciens de s'inspirer de

ces aléas pour créer des lignes mélodiques inhabituelles. Finalement, le

mauvais usage de cette machine a permis d'étendre ses possibilités

créatrices, à priori limitées, tandis que les synthétiseurs plus complets

étaient hors de prix pour ces musiciens. Les boites à rythme TR-808 et TR-

909, provenant toujours de chez Roland, subiront le même destin, de l'échec

commercial à l'amour inconditionnel des musiciens électroniques. Ces deux

dernières ont d'ailleurs été utilisées et abusées par une myriade de

compositeurs, et ont encore une place d'honneur dans les banques des

séquenceurs virtuels actuels.

22

Page 24: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Au-delà du mésusage des outils technologiques, on retrouve

sporadiquement des exemples de détournement dans l'histoire de la

musique électronique. Cependant, ils ne sont pas aussi transgressifs que

chez les musiciens savants précédemment cités ou pour Geof Emerick et les

éléments de son studio. Le détournement est, dans les débuts, commis par

hasard et conservé s'il apporte une nouveauté sonore appréciable. Par

exemple, le scratch, technique consistant à faire bouger manuellement un

disque sur une platine vinyle d'avant en arrière pour en obtenir le frottement

du diamant sur la surface figure pour la première fois sur l'album The

Adventures of the Wheels of Steel de Grandmaster Flash en 1981 mais est

découverte quelques années plus tôt par un très jeune DJ. Theodore

Linvingston (qui se fera appeler par la suite Grand Wizard Theodore) raconte

qu'il fut interrompu par sa mère lorsqu'il s'entrainait à mixer sur ses platines.

Il arrête alors l'entrainement de la platine manuellement et frotte

accidentellement l'un des disques contre le saphir, découvrant le scratch. En

plus de nécessiter une action sur la platine vinyle, il est intéressant de

constater que le scratch ne dépend presque pas de la musique gravée sur le

disque, celui-ci devient alors un outil quelconque, prétexte à la virtuosité

instrumentale que vont développer les DJ's dans les années suivantes.

D'autres détournements vont s'opérer notamment lors de l'arrivée du

sampler Akai S1000 en 1988, le premier à fonctionner en 44.1 kHertz et 16

bits, qui poussera tous les anciens samplers à n'être plus utilisés que pour

leur dégradation du son en huit ou douze bits, les possesseurs d'anciens

modèles jouant de ce son “lo-fi” (low-fidelity, qui signifie basse fidélité) pour

continuer à utiliser leur machine. Néanmoins, l'engouement pour l'abus et le

23

Page 25: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

détournement des technologies en musique électronique va se catalyser au

début des années quatre-vingt dix dans le glitch. Le « glitch » décrit

littéralement une brusque augmentation de tension dans un dispositif

électronique et c'est ce type de bug que va utiliser le genre musical pour

créer de nouveaux sons. Seront ainsi mis à profit les sautes des lecteurs CD,

la distorsion numérique, la tronque des échantillons sans compensation

d'erreurs, le bruit numérique, le bruit des disques durs et plus généralement

tout son généré par le mauvais fonctionnement du numérique.

Selon le musicien Kim Cascone, le glitch devrait plutôt être considéré

comme une esthétique tant les productions qui en sont issues sont variées et

il le qualifie de post-numérique étant donné qu'il découle de l’apparition du

CD (Compact Disk, ou disque compact en français) et des stations de travail

audionumériques personnelles9. Les premiers exemples de cette esthétique

se trouvent dans l'utilisation de CD's préparés à l'aide de bouts d'adhésifs

par Yasunao Tone en 1985 et la composition de Nicolas Collins comprenant

un quator à cordes et un CD qui saute en 1992 sur l'album It Was a Dark and

Stormy Night. Par la suite, le genre s'afirme avec les albums du groupe Oval

composés à l'aide des deux techniques précédemment citées et la création

de labels spécialisés dans le glitch, tel que Mille Plateaux en Allemagne qui

sortira la première compilation du genre en 2000, Clicks_+_Cuts. Comme ce

titre l'indique, le glitch fait souvent usage de sons très courts, des “clics” et

des “coupes”, qui tendent à remplacer les rythmiques des boites à rythme

habituelles. Ainsi, la majorité de ces morceaux ne cherche plus à donner le

9 Kim Cascone, « The Aesthetics of Failure : “Post-Digital” Tendencies in Contemporary Computer Music » (L'esthétique de la défaillance : Tendances “post-numériques” dans la musique assistée par ordinateur contemporaine), Computer Music Journal, vol. 24, n°4, Hiver 2000, p.12-18, p.13

24

Page 26: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

son le plus “lourd” et le plus “gros” possible comme la musique électronique

l'avait principalement fait jusqu'alors, mais résulte en l'utilisation

minutieuse des craquements des machines, mettant en avant le détail des

erreurs de calcul, des parasites que les autres musiques cherchent à efacer.

Une partie de la production glitch possède donc une esthétique très

intimiste, qui s'écoute aisément au casque et maintient l'attention de

l'auditeur par l'évolution des sons microscopiques qui la composent tout en

le plongeant vertigineusement non plus dans la machine, mais dans les

données numériques elles-mêmes.

L'esthétique du glitch est toujours explorée aujourd'hui, par exemple

par la lecture de fichiers non compressés d'images issues du logiciel

Photoshop comme des fichiers audio. En efet, tout fichier numérique étant

composé de chifres binaires, ils peuvent tous être lus comme étant un son,

une image, une vidéo, un texte, rendant les possibilités de détournement

infinies. C'est en cela que le genre est abyssal. Et les compositeurs s'y

adonnant ne manquent ni d'idées, ni d'enthousiasme, pour tenter de

détourner l'univers numérique entier qui les entoure. Cependant, ce genre

reste qualifié d'expérimental et se trouve être en marge de la production

actuelle. Je pense néanmoins que c'est précisément cette esthétique, « the

aesthetics of failure » (l'esthétique de la défaillance) selon le musicien Kim

Cascone10, qui inspire aujourd'hui l'utilisation d'efets sur la voix, tels que le

vocoder ou l'autotune, traduisant ainsi la défaillance de l'interprète qu'il ne

peut plus exprimer lui-même. Il convient alors de s'intéresser aux méthodes

d'étude de la voix traitée pour étudier ce phénomène.

10 Kim Cascone, Ibid.

25

Page 27: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

2) ANALYSER LA VOIX ET SES TRAITEMENTS

a – L'effet, renfort de la signification

Pour conclure son ouvrage La voix et la machine, Bruno Bossis explique

son intérêt pour la vocalité artificielle (le terme vocalité définissant un

phénomène sonore se rapprochant de la voix sans pour autant en être) par

le fait qu'elle est la seule des manifestations technologiques ancrée dans

l'intime. En efet, il met en avant l'idée que la voix, contrairement aux autres

instruments, implique toujours un locuteur et sa personnalité en plus d'être

vecteur de texte. D'ailleurs, il émet l'idée que le traitement musical de ce

texte est mis en abyme par le traitement de la voix. Ainsi, l'efet apposé à

celle-ci occuperait la fonction d'un méta-texte qui se déploie parallèlement

au sens porté par l'aspect traditionnel du chant tout en interagissant avec

lui. Il constitue de ce fait un nouveau niveau de lecture et d'écriture de la voix

chantée.

C'est une idée similaire que développe Pierre Couprie lorsqu'il cherche

à établir une grille d'analyse pour la voix dans la musique électroacoustique.

Il définit ainsi quatre angles d'analyse qui sont le texte (rythme, vitesse,

césures...), la morphologie (hauteur, spectre, texture...), la référence

(identification de l'âge et du sexe, identification de l'émotion) et les

transformations opérées sur le son11. Néanmoins, il introduit la notion de

distance par rapport à une source imaginaire qui s'applique à l'étude de ces

paramètres. Par exemple, on évaluerait la hauteur d'une mélodie à la fois de

11 Détails en Annexe 1 : Grille d'analyse de Pierre Couprie

26

Page 28: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

manière absolue et relative, en la situant dans le spectre et en estimant

l'écart de sa transformation par rapport à la hauteur de la source non traitée

qu'on s'imagine. Dans la mesure où on identifie la présence d'un efet dans

le fait qu'il altère la voix, qu'il l'écarte de son apparence naturelle, les

arguments de Bruno Bossis et Pierre Couprie sont semblables, l'efet ajoute

dans les deux cas un niveau de lecture supplémentaire.

Cependant, lorsqu'on cherche à décrire la nature d'un efet et à

l'interpréter, les critères d'analyse des transformations de la voix de Pierre

Couprie ne me semblent pas tout à fait satisfaisants. Il en distingue cinq

catégories :

« 1) Les efets jouant sur la prolongation du son : les délais et réverbérations ;

2) Les efets jouant sur des transformations internes du spectre du son : les

filtres, etc. ;

3) Les efets modifiant la place du spectre dans la gamme générale des

fréquences : la transposition, les efets polyphoniques, etc. ;

4) Les efets modifiant l’enveloppe dynamique du son : gate, générateur

d’enveloppe, etc. ;

5) Les efets ajoutant au son un élément qui semble extérieur : modification

du grain, modulateurs, etc. »

Cette classification me semble réductrice car un efet peut tout à fait

agir sur plusieurs paramètres du son à la fois, il deviendra alors impossible

de le décrire entièrement en le rangeant dans une catégorie. Même

l'utilisation de la réverbération, bien qu'elle agisse avant tout sur la

prolongation du son, peut engendrer une modification de la perception du

spectre, mettant en avant certaines zones fréquentielles, ou sur la

27

Page 29: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

dynamique en altérant l'extinction du son. En efet, cette grille se base sur

les qualifications intrinsèques des modifications plutôt que sur leur action

globale quant à la perception. Elle ne prend pas non plus en compte l'idée

de référence ou de citation dans l'utilisation d'un efet, ces deux idées

permettant de mettre en exergue l'utilisation d'un détournement. Ainsi cette

méthode d'analyse travaille plus sur la structure d'un morceau que sur sa

réception. Il me semble qu'elle permette principalement une interprétation

de la forme, moins du contenu sensible proposé par une œuvre.

Une autre grille d'analyse est celle de Cathryn Lane qui classe les

transformations vocales en dix-neuf types12. La voix traitée par un efet est

explicitée par le quatorzième exemple : « 14 - Excitation phonétique : la voix

est utilisée pour articuler d'autres sources de résonance, comme dans

l'espace architectural d’Alvin Lucier I Am Sitting in a Room (1970) ou comme

avec un synthétiseur du type Vocodeur. », les autres mettant plutôt en avant

des figures de style de montage sonore ou d'organisation sémantique. Cette

description fait référence uniquement au procédé, mais deux autres de ses

points d'analyse peuvent s'avérer eficace pour en étudier le sens:

« 1 - Dissolution de la sémantique par le biais de la transformation : la

sémantique d'un mot ou d’une expression est dissoute par un efet de

transformation comme la superposition, la réverbération écrasante ou écho

inversé, traitement spectral, etc. par exemple Steve Reich Come Out.

[…] 9 - Rétention des sens : les mots sont présentés tel qu’ils ont été

enregistrés, sans traitement. »

En efet, lorsqu'on augmente l'intensité d'un traitement au delà d'un

certain seuil, en plus d'altérer sa propension à être reconnue comme12 Détails en Annexe 2 : Grille d'analyse de Cathryn Lane

28

Page 30: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

humaine, la voix perd son contenu sémantique tandis que l'efet prend un

nouveau sens. Il devient une texture sonore tout en imposant une césure

dans le récit, parfois un point final. Il peut par exemple traduire une émotion

que les mots ne sufisent plus à transmettre. Le point numéro neuf prend

tout son sens lorsque la voix naturelle apparaît dans un contexte dans lequel

elle aurait pu être traitée. L'idée de « rétention de sens » s'explique par la

perte d'un niveau de lecture de la voix, qui sera de ce fait plus forte si cette

apparition est précédée d'une voix traitée.

Ainsi, il pourra être possible d'utiliser ces grilles d'étude pour explorer

les efets appliqués à la voix, mais il me semble qu'il est important de

chercher aussi d'autres méthodes plus intuitives. Il n'est pas non plus fait

mention dans ces textes de la possibilité de se baser sur la culture de

l'auditeur pour faire passer des références dans l'efet. Par exemple, on peut

utiliser un procédé figuratif consistant à rappeler le son d'un récepteur

téléphonique, chose expérimentée dans le morceau Nightcall de Kavinsky,

dont le pseudo-vocodeur n'a pas qu'un sens unique. Aussi, le traitement

d'une voix peut rappeler celui d'un autre morceau préexistant, comme avec

le dernier album des Daf Punk, Random Access Memories, dans lequel

certains efets couplés avec des lignes mélodiques particulières

s'apparentent aux utilisations du vocodeur chez Herbie Hancock, donnant à

ces morceaux une touche très rétro sans pour autant tomber dans la

reproduction.

En outre, on retiendra que l'efet est un moyen de raconter et

d'exprimer en plus du texte chanté et je pense que cette expression est

29

Page 31: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

d'autant plus eficace qu'elle s'adresse à l'afect. À ce propos, un des

concepts de la psychanalyse se prête particulièrement bien à expliquer le

trouble que peut transmettre la voix traitée.

b – L'inquiétante étrangeté de la voix traitée

À la lecture de VOICE, un livre rassemblant dix-neuf chapitres

indépendants chacun écrit par un auteur diférent sur un des aspect de la

voix au travers des arts et médias numériques, il est intéressant de constater

que le terme le plus employé pour décrire un décalage entre la réception

d'une voix enregistrée qui aurait été altérée et l'idée qu'on se fait de sa

véritable nature (reprenant l'idée de distance imaginaire à la source), est

celui de « uncanny ». Ce terme est la traduction du concept freudien de

l'inquiétante étrangeté (Das Unheimliche en allemand), hérité du

psychologue Ernst Jentsch qui l'étudie pour la première fois en 1906 et

décrit ce sentiment comme « celui où l’on doute qu’un être en apparence

animé ne soit vivant, et, inversement, qu’un objet sans vie ne soit en

quelque sorte animé 13». Sigmund Freud reprend ce concept en 1919 et

l'intègre à la théorie psychanalytique en le définissant comme le retour du

semblable, du familier ou bien du double, qui provoque l'angoisse par le

refoulement de cette image. Ainsi, ce malaise a lieu lorsqu'un objet du

quotidien, ou un sujet, ne répond plus à sa représentation rationnelle ou

n'est plus distingué comme tel. Freud prend pour exemple une anecdote où

étant dans un train de nuit, il aperçoit son reflet dans une vitre y voyant

13 Sigmund Freud, L'inquiétante étrangeté (Das Unheimliche), trad. Marie Bonaparte & Mme E. Marty, Paris, Gallimard, 1933. p.10.

30

Page 32: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

d'abord une seconde personne se tenant en face de lui dont l'apparition lui

est désagréable. Ici, c'est bel et bien le double qui est refoulé. Dans le cas

d'une voix traitée par des efets, on peut analyser le sentiment d'inquiétante

étrangeté qu'elle dégage comme étant celui du reflet monstrueux d'une

image sonore familière. Notre connaissance de la voix humaine nous intime

de la (re-)connaître en tant que tel, bien qu'il nous est dificile de la ranger

aux côtés des voix que l'on connait le mieux, les voix rassurantes de nos

proches.

Au delà de ce point critique du traitement de la voix, on constate que,

dans le cas où la voix est plus abimée par l'efet ou qu'elle l'est moins, elle

serait dans les deux cas bien plus rassurante. À cet efet, Gérard Grisey

analysait le traitement des voix de sa pièce Les chants de l'Amour dans sa

note de programme en divisant ceux-ci en quatre catégories :

« L'intérêt de la voix synthétisée ne réside pas tant dans l'imitation de la voix

humaine que dans les infinies possibilités de déviations de ces voix. Nous y

découvrons plusieurs champs de perceptions et de réactions émotives liées

aux avatars de la voix humaine :

- voix chantée, bien imitée presque trop pure, sans défaut. « Quelle voix ! »,

- territoires mystérieux de la voix humaine mise dans des situations inouïes.

« Qu'est-il arrivé à cette voix ? »,

- zones inquiétantes de la voix « biologique ». Quelque chose ou quelqu'un

vit et respire pour produire ce son. « Quel est ce monstre ? »,

- zones rassurantes du son instrumental ou électronique. « Ah ! Il ne s'agit

que d'une machine...» 14».

Il distingue ainsi, entre la voix parfaitement pure et la voix évidemment

robotique deux niveaux, la « zone inquiétante de la voix biologique » qui14 Gérard Grisey, note de programme. Concert du 3 juin 1985.

31

Page 33: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

s'apparente bien à l'inquiétante étrangeté et les « territoires mystérieux de la

voix humaine », plus modérés. Il semble que le niveau le plus inquiétant soit

celui qui fait ressortir l'organique, le vivant, d'un tapis électronique, inanimé,

tandis que le second décrit plutôt une altération légère, comme si l'atteinte

avait été portée à la bande enregistrée et non à la phonation directement.

On peut aussi penser à analyser la voix traitée sous l'angle de la

théorie de l' « Uncanny Valley » (Vallée dérangeante), émise par le roboticien

Masahiro Mori, qui s'apparente presque aux niveaux décrits précédemment.

Le scientifique y émet l'hypothèse que, passé un certain seuil, la

ressemblance d'un robot avec un être humain va se solder par un profond

sentiment de malaise pour l'observateur, d'autant plus si le robot est

animé15. Il trace ainsi une courbe du degré de familiarité d'un robot en

fonction de sa ressemblance avec un être humain. Il est ainsi intéressant

d'essayer d'étudier cette courbe en imaginant pour abscisse le degré

d'altération de la voix par un efet, avec les pourcentages en ordre

décroissant, pour en déceler les similarités et les diférences avec cette

théorie.

15 Mashiro Mori, « The uncanny valley » (la vallée de l'étrange), trad. K. F. MacDorman & T. Minatc, Energy vol .7, n°4, 1970, p.33-35.

32

Page 34: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Figure 1 : Représentation schématique de la vallée de l'étrange d'après Mashiro Mori

On peut séparer ce graphique en quatre zones par analogie avec

l'analyse de Gérard Grisey. Une première zone dans les plus faibles abscisses

du graphique s'apparente à l'aspect robotique d'un efet. La zone suivante

ressemble à l'idée de territoires mystérieux de la voix mais en mettant en

avant la notion de familiarité qu'ils procurent. En efet, ici le robot

s'apparente à l'humain tout en en étant facilement dissociable. À ce degré, la

voix serait donc évidemment traitée mais il serait aisé de s'imaginer la voix

originale derrière l'efet. Cela semble se référer par exemple à des situations

ou l'efet vient en soutien de la voix et est donc superposé à une voix non

traitée. La troisième zone serait la vallée dérangeante, provoquant le

sentiment d'inquiétante étrangeté décrit précédemment, correspondant aux

zones inquiétantes de la voix biologiques. Cependant, on peut aisément

imaginer que cet efet puisse aussi se produire lorsque la voix est très

dégradée, c'est la zone dont le placement sur le graphique semble

correspondre le moins dans cette analogie. La quatrième zone, celle au plus

33

Immobile

100%50%

Zombie

Main prosthétiqueCadavre

Apparence humaine

Robot industriel

Animal en peluche

Humain en bonne santé

vallée de l'étrange

Marionnette de bunraku

Robot humanoïde

Mobile

Deg

ré d

e fa

mili

arit

é

Page 35: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

haut du graphique serait celle de la voix non traitée, ou très peu retouchée,

le quatrième niveau de Gérard Grisey semblant se situer au delà de cette

courbe lorsque la voix est magnifiée.

Par ailleurs, ce qui me paraît le plus intéressant dans cette analogie est

l'idée qu'à la gradation d'un efet, ou du pourcentage total auquel on

l'ajoute à la voix non traitée, on peut associer un degré de familiarité, de

confort, qui n'est pas linéaire. La vallée dérangeante ou sentiment

d'inquiétante étrangeté ne paraît pas pouvoir être placé à l'une des

extrémités du schéma, mais est susceptible d'apparaître dans une fenêtre de

valeurs des réglages, de taille incertaine. Je m'eforcerai ainsi au cours de

mes expérimentations d'identifier les cas où je m'y trouverai, ou du moins

l'approcherai, et d'exploiter ces zones et leurs limites car je crois qu'elles

sont des plus significatives tant le sentiment qu'elles engendrent est fort et

partagé. Efectivement, au delà du simple malaise, je pense qu'il est possible

de faire porter à ces traitements un sens supplémentaire, audible parce que

la gêne provoquée par le sentiment d'inquiétante étrangeté incite à l'écoute

attentive pour déterminer la provenance de la voix et donc l'intention du

locuteur. Finalement, cette utilisation de l'efet est un outil précieux car il est

plus dificile aujourd'hui de transmettre une émotion par le chant en

musique électronique.

34

Page 36: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

c – « Le grain de la voix » et la recherche d'une approche

intuitive

Dans un article de la revue Musique en Jeu de 1972, Roland Barthes

développe son concept de « grain de la voix », qu'il traduit comme étant « le

corps dans la voix qui chante 16». Pour le définir, il transpose l'opposition

entre le phéno-texte et le géno-texte, concepts inventés par la philologue

Julia Kristeva, au chant. Le phéno-chant se définit alors comme ce qui relève

de la structure de la voix chantée, qui répond aux codes et aux usages d'une

époque. Il met en évidence ce concept par la dramatisation de scènes

d'opéra, surplus d'expressivité par rapport au texte, et l'exigence de

l'articulation, artifice ajouté à l'élocution usuelle d'une langue. À cela, il

oppose le géno-chant, « l'espace où les significations germent “du dedans de

la langue et dans sa matérialité même” 17», représentant le travail de la

diction de la langue au sein de la musique. Le grain de la voix réside dans cet

aspect du chant, résultant de la friction du timbre chanté et de langue elle-

même, et non du message. D'après lui, en évitant la redondance de la

signification par le phéno-chant, le géno-chant permet d'émouvoir en jetant

immédiatement le symbolique devant l'auditeur, sans médiation. Il prend

pour exemple la mort de Mélissandre dans le cinquième acte de l'opéra

Pelléas et Mélissandre de Claude Debussy qui se produit sans efusion

dramatique de sa part et qui émeut par sa sobriété. De ce fait, qualifier le

grain de la voix et la manière dont il nous apparaît ou non dans un morceau

semble être une méthode intéressante pour juger de la qualité de

l'interprétation d'une voix.

16 Roland Barthes, « Le Grain de la voix », Musique en Jeu, n°9, novembre 1972.17 Roland Barthes, Ibid.

35

Page 37: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Dans la musique actuelle et particulièrement dans la musique

électronique, beaucoup de modes d'expression de la voix ont été retirés à

l'interprétation du texte. En efet, on n'utilise que très peu la variété des

timbres que peut employer un chanteur ou une chanteuse, les limitant

souvent à un timbre unique. De plus, le maintien d'une valeur eficace du

signal élevé (aussi appelé couramment niveau moyen) requiert l'utilisation

de la compression et ne permet plus aux chanteurs et chanteuses de

compter sur la dynamique pour interpréter leur chant. Lorsqu'ils l'utilisent,

on n'en récupèrera qu'une variation de timbre, entre une voix plutôt

chuchotée comportant du soufle, et une voix forte plus pleine. Aussi, les

instruments électroniques ne subissant aucune variation de leur accordage

au cours d'un morceau, il est souvent nécessaire que la voix soit

extrêmement juste pour chanter avec eux. Il n'est alors pas rare de recourir à

un ajustage de la hauteur sur certaines notes, même pour de très bons

interprètes, pour qu'ils s'intègrent mieux à la composition. Ainsi, les

variations très légères de hauteur qui permettaient de colorer légèrement les

notes, en assombrissant le chant lorsque la hauteur chantée est légèrement

inférieure et en rendant une mélodie brillante à l'inverse, ne sont plus

utilisables non plus. En outre, la musique électronique actuelle étant

souvent très répétitive, la mélodie se retrouve fixée pour les couplets et

refrains et on ne peut plus la faire varier pour accompagner le texte, d'autant

plus qu'on répète souvent ce dernier car les paroles ne doivent pas

détourner l'attention pour la musique et son appel hypnotique à la danse.

Les voix en musique électronique sont donc généralement très lisses,

aspect renforcé par les techniques de mixage actuel. On va ainsi chercher à

36

Page 38: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

éliminer tout ce qui pourrait gêner l'écoute à fort volume, efaçant la

sibilance grâce au de-esser et l'agressivité par série de filtres aux facteurs de

qualité élevés sur les zones fréquentielles proéminentes. On éradique ainsi

une partie du timbre, et même du grain, ce qui explique la ressemblance des

voix entre elles dans la production actuelle. D'après l'analyse de Roland

Barthes, on pourrait dire que la musique électronique a perdu en possibilités

expressives de phéno-chant, par la non-utilisation d'un large pan des

techniques vocales, mais aussi en géno-chant par le lissage du mixage.

De mon point de vue, il est possible de récupérer une partie de cette

expressivité vocale par l'usage d'efets. Comme ce qui a été montré

précédemment, les efets qui agissent sur la perception morphologique de la

voix engendrent de vives sensations. Je pense que ces traitements, étant

perçus en étroite corrélation avec le contenu du chant, ne se comportent pas

comme un niveau de signification supplémentaire indépendant mais bien

comme une nouvelle composante du grain de la voix. Cette notion a souvent

été employée pour décrire la fascination autour de l'apparition de ces efets,

Roland Barthes écrivant d'ailleurs que le grain est « le compte rendu

impossible d'une jouissance sonore individuelle que j'éprouve continûment

en écoutant chanter 18». Ces efets vont ainsi permettre une seconde écriture

de l'interprétation vocale tandis que celle-ci est en premier lieu

extrêmement contrainte. Ils vont écailler son vernis, recréer l'intonation qui

n'a pas pu être chantée, ou du moins la remplacer par un contenu sensible

similaire. De plus, je suis intimement convaincue que l'obtention de ces

efets par détournement ajoute au charme de ceux-ci, réveillant en nous un

esprit ludique, un amusement pour le mésusage des objets, comme l'est le18 Roland Barthes, Ibid.

37

Page 39: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

plaisir d'écoute du glitch décrit précédemment. Je conçois que cette

exaltation ne touche que les initiés, passionnés d'informatique ou de

musique. En outre, certains musiciens et musiciennes adoptent une

esthétique leur permettant une plus grande liberté dans l'interprétation

vocale malgré les carcans apparents de la musique électronique.

38

Page 40: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

3) INTRODUCTION DE LA VOIX DANS LA

MUSIQUE ÉLECTRONIQUE PAR L'USAGE

D'EFFETS

Dans ce chapitre, je décrirai plusieurs exemples d'utilisation de la voix

traitée par des efets dans la musique électronique qui me semblent

pertinents quant à l'idée du dépassement des contraintes esthétiques liées à

ce genre et qui m'inspirent dans la création de ma partie pratique de

mémoire. Aussi, je parlerai uniquement de morceaux dans lesquels la voix a

une place centrale dans la composition. Cette liste d'exemple n'est donc pas

exhaustive et je vais aussi me permettre de parler de morceaux qui touchent

aux limites de la musique électronique, notamment certains relevant du trip-

hop dans lesquels il n'y figure parfois quasiment que des instruments

acoustiques.

Les analyses que je réalise ici visent à disséquer les procédés sonores à

l'origine des sensations particulières que ces morceaux me procurent.

Néanmoins, il est très probable que le sens que je donne à ces efets de style

n'ait pas été théorisé par les compositeurs eux-même et que la réception des

morceaux soit diférente pour chaque auditeur. En efet, cherchant d'abord à

produire un plaisir esthétique, on choisit en général de garder dans une

composition ce qui “sonne” sans justification supplémentaire. Cependant, je

pense que l'appréciation esthétique que nous avons de certains morceaux

découle directement des émotions qu'ils nous évoquent et donc est

39

Page 41: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

intimement liée à l'eficacité des procédés choisis visant communiquer les-

dits sentiments.

a – La représentation de l'humanoïde par l'autotune et le

vocodeur

Dans les cas ou les musiciens et musiciennes font usage d'efets pour

modifier leur voix, il est intéressant d'étudier les cas ou la transformation de

leur grain soutient le sens du texte ou un certain propos esthétique. Par

exemple, en France, la musicienne Marylou Mayniel alias OKLou se sert de

l'auto-tune à des fins plutôt singulières. À l'origine, l'auto-tune est un

programme inventé par un ancien ingénieur en sismologie en 1996, Andy

Hildebrand, qui permet d'analyser puis d'ajuster la hauteur d'une voix, note

par note et ce, a priori, de manière transparente. Ainsi, il est possible grâce à

cette technologie de sélectionner au cours d'un enregistrement la prise

vocale avec la plus belle intention même si la justesse n'en est pas parfaite.

Néanmoins, cet outil a beaucoup contribué à lisser la musique actuelle,

rendant chaque voix excessivement juste et empêchant de jouer légèrement

sur la hauteur pour ajouter de l'intention. Cependant, l'auto-tune a subi un

détournement majeur dans son utilisation à la fin des années quatre-vingt

dix. En amenant deux de ses paramètres en butée, il est possible de

dénaturer la voix et de faire de ce traitement un efet. Les paramètres à

modifier sont le temps d'attaque du traitement qui lorsqu'il est au plus bas

fait sauter la voix d'une hauteur à une autre et la variation de hauteur au

sein d'une note qui lorsqu'elle est au minimum, empêche la voix d'efectuer

40

Page 42: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

son vibrato naturel. Le premier paramètre induisant les sautes de hauteur

donne un aspect qu'on pourrait qualifier de robotique et le second

paramètre est responsable de la coloration métallique souvent obtenue.

L'auto-tune a souvent été utilisé par les rappeurs pour chanter la

mélancolie, fragmentant leur voix à l'image de leurs émotions, faisant ainsi

évoluer l'univers du rap vers des contenus plus sensibles. Toutefois, cette

technique a rapidement été considérée comme un efet de mode, cet efet

apparaissant parfois systématiquement dans les production des musiciens.

Aussi, une partie du public se mit à faire l’amalgame entre l'utilisation de

l'auto-tune pour réajuster les voix des chanteurs peu précis et son utilisation

en tant qu'efet, ne réalisant pas toujours qu'il est possible de rendre ce

traitement transparent. L'auto-tune devint alors le bouc-émissaire de la

musique actuelle, se trouvant majoritairement cantonné au rap, et dont les

musiciens semblent craindre l'utilisation de peur de s'attirer des critiques.

OKLou fait partie de la jeune génération de musiciens indépendants

qui commencent à réintégrer cet efet dans leurs productions faisant fit de sa

mauvaise réputation. Dans sa musique, l'auto-tune appliqué à sa voix

rappelle certes des sonorités R'n'B19, mais il renforce surtout l'aspect

onirique de ses compositions. Couplés à d'autres efets comme des

réverbérations, des altérations de hauteur (pitch en anglais) et des délais, la

voix flotte, vacille et paraît incroyablement douce malgré son aspect post-

humain. En efet, la voix est altérée, mais il en résulte un son plus juste, dont

19 Le R'n'b est un genre musical né dans les années quatre-vingt qui mélange des éléments de rythm and blues, hip-hop, soul, pop et musique électronique. C'est souvent ce vers quoi tendent les rappeurs en utilisant des parties traitées par l'auto-tune

41

Page 43: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

l'attaque est plus rapide et qui ne subit pas de vibrato involontaire, donc au-

delà des possibilités de la voix humaine naturelle. Et pourtant, malgré le

lissage opéré par ce traitement et le fait qu'il masque la performance vocale

naturelle, l'efet charge sa voix d'afect, la transformant en l'expression d'un

être humanoïde bienveillant. OKLou dira d'ailleurs très justement à propos

de l'auto-tune : « On ne parle plus de “performance” vocale, on est moins

attaché qu’avant à l’authenticité du timbre, au rapport “vrai” à la voix. Je

pense que c’est une bonne chose, ça veut dire que les gens ont compris que

la qualité d’un morceau n’est pas dans la performance mais dans la sincérité

de la démarche, quelle qu’elle soit 20».

Le second efet appliqué à la voix à avoir irrigué la production

musicale électronique est le vocodeur. Il est apparu dans la musique dans

les années soixante-dix mais son principe est inventé en 1930 par l'ingénieur

Homer Dudley des laboratoires de téléphonie Bell. Il consiste en l'analyse de

la voix grâce à un filtrage multi-bande recouvrant le spectre, ce qui permet

d'en extraire le profil dynamique en chacune de ces bandes, puis en

l'application de ces profils à chacune des bandes spectrales

correspondantes d'un son synthétisé.

20 Citation extraite de l'article « le jour où un sismologue a inventé l'Auto-Tune », par Simon Clair, sur Greenroom.fr. (26/04/16)

42

Page 44: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Figure 2: schéma synoptique d'un vocodeurEn haut à gauche : Entrée pour la voix.

En bas à gauche : Entrée pour le synthétiseur (“la porteuse”).Ainsi, les VCA (Voltage Control Amplifier, Amplificateur contrôlé en tension en français) sontalimentés par les différentes bandes filtrées du synthétiseur et contrôlés par le niveau desdifférentes bandes filtrées de la voix. Le spectre obtenu est ensuite reconstruit en sortie (à

droite).

Cette invention avait pour but de limiter la bande passante nécessaire

pour la téléphonie en conservant l'intelligibilité de la voix. En efet, le

principe d''émission de la voix repose sur le filtrage du son des cordes

vocales par les cavités buccales, nasales et le larynx. Ainsi, le vocodeur prend

une sorte d'empreinte de ces filtres résonnants (en conservant une courbe

de l'évolution de la dynamique dans chacune des bandes du spectre) et il est

possible de transmettre uniquement cette empreinte, notamment via un

câble téléphonique, pour synthétiser une imitation de cette voix en

remplaçant le son originel des cordes vocales par un autre signal à la

réception. Néanmoins, malgré son utilisation par les américains durant la

seconde guerre mondiale, ce procédé ne fut pas plus développé dans la

téléphonie car la voix qui en résulte est très déformée et peu agréable pour

des conversations personnelles. Ainsi, cette invention a été détournée à des

fins artistiques.

43

Page 45: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Après ses toutes premières applications par Krafwerk et Wendy Carlos

dans les années soixante-dix, le vocodeur est souvent utilisé pour

caractériser la voix d'un robot. Cette manière d'utiliser le vocodeur

déshumanise fortement la voix, on n'entend plus un humain mais une

machine qui parle, chose que définissait Gérard Grisey comme les « zones

rassurantes du son instrumental ou électronique 21». On retrouve par

exemple cet usage dans la discographie des Daf Punk dans des titres

comme Harder, Better, Faster, Stronger produit en 2001 dans lequel un robot,

ou du moins une intelligence artificielle semble échapper à sa

programmation initiale en demandant aux humains de travailler plus pour la

rendre plus forte. Néanmoins, je pense qu'il n'est pas très pertinent d'étudier

cette utilisation particulière du vocodeur sous le spectre de notions telles

que l'inquiétante étrangeté ou le grain de la voix, ces compositions jouant

plus avec la notion de référence (notamment cinématographique) et

d'utilisation ludique des machines. Une utilisation de cet efet se

rapprochant mieux de ces concepts est ce qu'en fait Laurie Anderson dans

son morceau O Superman sorti en 1982. Ici, sa voix traitée est ajoutée à sa

voix naturelle. Le synthétiseur modulé par le vocodeur joue des accords, elle

donne ainsi l'impression de dédoubler sa voix par ce procédé. Le texte, un

poème halluciné inspiré par la crise des otages américains d'Iran et

notamment par l'accident d'hélicoptère lors de la mission d'extraction des

otages22, est un dialogue raconté par l'un de ses deux protagonistes. Le

second personnage se présente comme la mère du premier mais il semble,

notamment grâce aux derniers vers, qu'il s'agisse d'une personnification des

États-Unis, représentés comme la mère patrie. Le dédoublement de la voix

21 Gérard Grisey, Ibid.22 Paroles et traduction du morceau O Superman en Annexe 3

44

Page 46: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

de Laurie Anderson par les harmonies du clavier et l'altération étrange de

son grain lui font ainsi incarner cette entité supérieure, mi-inquiétante et mi-

rassurante. En efet, le timbre de sa voix étant très abimé et en plus mise en

avant par l'instrumentation minimaliste provoque un sentiment

d'inquiétante étrangeté mais dans le même temps l'harmonie du morceau

est simple et répétitive, la mélodie vocale est constante et la chanteuse

raconte les vers d'une voix douce. On peut ainsi rapprocher cette

interprétation de Laurie Anderson à la production musicale d'OKLou car elle

est tout autant onirique, néanmoins elle y introduit une composante

dérangeante par l'altération plus violente de sa voix. Cet ajout de matière à

la voix, voire à la représentation qu'on se fait du corps de la chanteuse et

l'antinomie des sensations proposées me captive.

b – L'expression des sentiments par l'usage de l'effet

L'utilisation du vocodeur qui m'inspire le plus est celle du musicien

Kavinsky, alias Vincent Belorgey, qui maitrise parfaitement ce procédé dans

son morceau Nightcall sorti en 2010. Sur ce titre figure un chanteur dont la

voix est traitée à l'aide d'un vocodeur et la chanteuse Lovefoxx, qui semble

subir bien moins de traitements en comparaison. Sa voix est magnifiée, mise

en avant, lissée par le mixage, un léger délai et le fait qu'elle soit doublée et

en stéréo lui donne un aspect éthéré. Au contraire, la seconde voix est très

sévèrement abimée, on y entend beaucoup de bruit, il est très dificile de se

représenter l'interprète. Elle est en mono et n'est pas réverbérée ni délayée

ce qui met fortement en avant son timbre, et donc son grain. Cette

45

Page 47: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

opposition entre voix “claire” et voix traitée peut être analysée par la grille

de Cathryn Lane comme opérant une rétention de sens, on remarque en

efet que la voix claire semble bien moins expressive que celle traitée. Ainsi,

en mettant en regard ces diférences avec le texte, on assiste à l'échange

entre un homme déchiré, fragmenté, comme le suggère le traitement de sa

voix et une femme plus calme. Kavinsky touche ici au sommet de

l'inquiétante étrangeté, la voix du chanteur provoque l'angoisse mais le

rythme lent du morceau et la voix rassurante de la chanteuse pousse

l'auditeur à s'interroger sur son état plutôt qu'à prendre peur. De plus, il est

intéressant de voir que le ton presque érotique de la chanteuse (renforcé par

le mixage qui l'a adouci) qui est régulièrement employé dans la musique

actuelle pour attirer l'attention de l'auditeur est ici tout à fait justifié par le

texte. En efet, celui-ci relate l'échange de deux interlocuteurs qui,

s'appelant dans la nuit comme le titre l'indique, sont attirés l'un par l'autre

mais ne se le disent jamais explicitement23. D'ailleurs, l'appel téléphonique

signifié dès la première phrase du texte légitime d'emblée le vocodeur qui

imite donc la mauvaise qualité de la réception, on sait par cela que notre

point d'écoute se situe du coté de la femme.

Ainsi en quatre minutes de musique et à peine six phrases prononcées,

étant répétées en boucle, c'est toute une scène de cinéma que Kavinsky met

en place. On y voit une femme au téléphone, un homme semblant porter en

lui beaucoup de soufrance à l'appareil, qui lui propose de l'emmener en

voiture et même, métaphoriquement, de se livrer à elle par la phrase « I’m

gonna show you where it's dark, but have no fear. » (Je vais te montrer où il

fait sombre, mais n'aie pas peur). Elle, sans accepter sa demande, lui fait23 Paroles et traduction du morceau Nightcall en Annexe 4

46

Page 48: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

comprendre que quelque chose en lui l'intéresse : « There's something inside

you, it's hard to explain » (il y a quelque chose en toi, c'est dificile à

expliquer), et le rassure sur le fait qu'elle ne se fie pas aux rumeurs qui

courent sur lui. En quelques lignes et un efet, tout est dit. Le vocodeur

renforce ici l'aspect cinématographique par la référence au téléphone mais

traduit aussi les émotions de l'homme, émotions qu'il n'aurait pas pu jouer

dans ce morceau comme on le ferait dans un film. Cette capacité du

musicien à mettre tous les éléments au service de la signification sans que

cela ne soit évident de prime abord me fascine. En outre, j'apprécie

beaucoup cet efet d'alternance entre les deux voix qui berce l'écoute et la

concision de son propos.

Enfin, une dernière de mes inspirations en matière d'efet appliqué à la

voix est le morceau Deer Stop, tiré de l'album Felt Montain de Goldfrapp sorti

en 2000. La chanteuse Alison Goldfrapp délivre dans cet opus une

interprétation du chant très personnelle. La plupart des mélodies sont

graves, on sent qu'elle arrive parfois au plus bas de sa tessiture et elle chante

souvent à un niveau très faible laissant passer beaucoup de soufle, des

siflantes fortes et des bruits de bouches qui ne sont volontairement pas

nettoyés des bandes enregistrées. Aussi, elle ne se refuse pas d'utiliser une

large variété de timbres et même de prononciations, pouvant donner un

aspect maniéré à son élocution. Elle se place ainsi à l'opposé de ce qu'on

attend généralement en musique électronique en terme de traitement vocal,

c'est-à-dire des voix claires, lumineuses, lisses, énergiques et à l'élocution

stable et articulée. De plus, l'instrumentation de ce premier album est peu

fournie en instruments électroniques, il s'apparente alors plus à du trip-hop.

47

Page 49: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Ce genre musical est né au début des années quatre-vingt-dix en

Angleterre et désignait à l'origine les morceaux aux penchants

expérimentaux mélangeant hip-hop et musique électronique, mais il s'est

rapidement élargi pour contenir des éléments musicaux empruntés à des

styles très variés. On y trouve généralement une rythmique lente proche du

style hip-hop, une basse sourde et proéminente, des éléments mélodiques

samplés (c'est-à-dire extraits d'autres enregistrements), une ambiance dite

“planante24 ”, mélancolique et désenchantée, mais tous ces constituants n'y

sont pas toujours présents. D'ailleurs, le trip-hop emploie souvent des codes

issus du glitch, notamment dans la dégradation des textures sonores

utilisées.

S'inspirant du trip-hop, c'est surtout son atmosphère particulière que

Goldfrapp retranscrit dans cet album, l'interprétation vocale originale

venant au renfort des instrumentations instables et hétéroclites dans

l'expression de ce désarroi. Il y a alors plus qu'uniquement la voix qui

transmet ce sentiment d'inquiétante étrangeté, mais c'est toute la matière

sonore qui s'y consacre. De plus, le mixage de cet album s'écarte aussi de la

norme puisque c'est une approche globale qui y est mise en œuvre, en dépit

du traditionnel traitement analytique opéré dans la musique actuelle. Ainsi,

les timbres des instruments se mélangent, se masquent, et ces phénomènes

sont encouragés au mixage, notamment par l'ajout de longues

réverbérations. Ils sont donc moins bien discernables et reconnaissables, ce

qui accompagne un peu plus l'ambiance profondément étrange de cet

24 Il est dificile de trouver un synonyme approprié à ce terme du langage familier. Le Centre National des Ressources Textuelles et Littéraires le définit par : « Qui fait plaisir et fait perdre le contact avec la réalité ».

48

Page 50: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

album.

L'étrange résultat sonore obtenu sur Deer Stop, l'une des seules

chanson de l'album sur lesquelles la voix est transformée, semble être issu

de l'utilisation de plusieurs efets simultanés mais variant au cours du

morceau. Il me paraît y entendre un filtre passe bande dont la largeur et la

fréquence centrale varient au cours du temps, une réverbération à ressort

qui colore certains mots, faisant apparaître à un moment des bandes de

fréquences aiguës peu naturelles, un filtre notch à gain positif (filtre en

cloche au facteur de qualité très faible, en français) oscillant entre plusieurs

fréquences notamment à la fin du morceau et peut-être même un bitcrusher

(réducteur de résolution du signal), mais je n'en suis pas sûre car les

artefacts qui y font penser pourraient tout aussi bien avoir été créés par les

autres efets et l'intonation hésitante d'Alison Goldfrapp. Étant à la limite du

chuchotement, la chanteuse laisse passer beaucoup de soufle dans sa voix

ce qui, en remplissant le spectre de bruit, permet aux efets d'être fortement

sollicités et donc de rendre leurs variations bien audibles. C'est une idée

intéressante que je retiens pour ma partie pratique de mémoire puisque,

comme je l'expliquerai par la suite, les traitements d'Izotope RX semblent

créer plus d'artefacts lorsque le signal qu'ils reçoivent est fréquentiellement

plus riche.

Comme dans ses autres titres dans lesquels sa voix n'est pas traitée,

Alison Goldfrapp conserve aussi ses bruits de bouche qui, loin d'être

indésirables dans ce cas, aident à la conservation de l'aspect humain de sa

voix dans la première partie du morceau. Ils lui donnent une apparence

49

Page 51: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

faillible mais apportent aussi une sensation de vrai, de naturel, malgré

l'efet. Quant à lui, il renforce l'aspect susurré du texte en mettant

successivement en évidence certaines zones fréquentielles du soufle de la

chanteuse. La voix se fait ainsi très intime et touchante, Goldfrapp évoquant

possiblement un rapport sexuel25. D'ailleurs, le filtre qui réduit la bande

passante de sa voix peut donner l'impression qu'elle murmure son texte en

collant sa bouche contre une matière absorbante, suggérant alors qu'elle

récite ces vers contre le corps de son amant ou amante. Dans la seconde

partie du morceau, les efets se font plus prononcés et le texte devient de

moins en moins compréhensible, il se forme alors une dissolution

sémantique selon le terme de Cathryn Lane. La voix n'est plus que

complainte, désordre de mots mal articulés pendant l'acte, impression

renforcée par l'étrange élocution de la chanteuse. L'efet fonctionne donc ici

plutôt par la référence, en évoquant une transformation connue du spectre

de la voix, mais aussi par métaphore en altérant la voix jusqu'à

l'anéantissement de son intelligibilité comme pour signifier la dissolution

des pensées de la chanteuse dans l'instant présent.

Si Alison Goldfrapp se permet autant de liberté dans l'interprétation et

le traitement de sa voix, c'est parce que les choix esthétiques engagés par le

reste de la musique sont tellement forts qu'elle n'a plus à se plier aux

carcans de la production actuelle de l'époque. Ainsi, ses possibilités

d'expression sont enrichies par ses manières relevant du phéno-chant et son

atypique grain de voix et plus encore renforcées par le choix de l'efet. Bien

que la première sensation que procure ces morceaux soient celle de

l'inquiétante étrangeté, la voix va au delà de la simple description de ce25 Paroles et traduction du morceau Deer Stop en Annexe 5

50

Page 52: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

malaise et trouve les mots, ou du moins le langage, pour décrire les subtilités

de l'atmosphère désenchantée du trip-hop. D'ailleurs, dans les albums plus

conventionnels que sortiront Goldfrapp dans les années suivantes, le

placement et le traitement de sa voix sont bien plus convenus, il y paraît en

efet dificile de conserver la même interprétation vocale alors que

l'instrumentation est bien plus entêtante et lumineuse.

En conclusion, que l'utilisation de l'efet soit occasionnel ou

systématique chez les musiciens et musiciennes (par exemple pour OKLou),

il permet d'ajouter du sens ou de le renforcer au sein de la composition.

Cette opération se produit par la transformation de l'image qu'on se fait de

l'interprète, soit en modifiant la perception de son physique comme pour

OKLou et Laurie Anderson qui deviennent des figures post-humaines ou sur-

humaines, soit en donnant des indices sur son état mental ou bien en

ajoutant un contexte à la situation comme le font Kavinsky et Goldfrapp.

Pour la composition de ma partie pratique de mémoire, je me focaliserai sur

ce deuxième aspect car je cherche à ajouter de l'intention à l'interprétation

vocale par l'efet. En outre, les voix transformées par des efets, par leur

aspect synthétique, semblent pouvoir s'intégrer plus facilement aux

compositions musicales.

51

Page 53: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

II. PROPOSITION D'UN NOUVEL

EFFET APPLIQUÉ À LA VOIX

OBTENU PAR DÉTOURNEMENT

52

Page 54: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

1) LES PRÉMICES DE LA CRÉATION

J'ai choisi d'utiliser la suite de modules d'extension Izotope RX pour la

détourner dans une composition musicale pour plusieurs raisons. Tout

d'abord, je voulais maximiser mes chances d'obtenir au moins une nouvelle

texture intéressante, je souhaitais donc étudier un ensemble contenant

plusieurs plug-ins (en français, modules d'extension). Cette suite a attiré

mon attention lorsque j'ai eu à en user dans des cadres conventionnels pour

du cinéma ou de la restauration d'enregistrements sonores. J'ai trouvé que

les artéfacts que ces outils produisaient étaient très surprenants et ils ne me

rappelaient rien de connu. J'ai donc voulu poussé l'expérience plus loin en

les transformant en efets, d'autant plus que l'entreprise qui commercialise

ce produit reste très discrète sur le fonctionnement de ces algorithmes. Ainsi,

je ne peux pas deviner les failles de ces traitements à l'avance, ni savoir

exactement ce que l'exagération d'un certain paramètre va engendrer quant

aux artéfacts, ce qui rend cette expérience très ludique.

a – Présentation de la suite Izotope RX

Izotope RX est un logiciel permettant principalement le nettoyage de

prises de son et la restauration d'enregistrements abîmés. Il fonctionne

d'une part en stand alone, c'est-à-dire comme un logiciel indépendant mais

propose aussi une suite de plug-ins qui permet l'utilisation de certaines de

ses fonctions au sein de stations de travail audionumériques. Dans son

fonctionnement autonome, la fenêtre principale permet de visualiser la

53

Page 55: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

forme d'onde du signal mais aussi son spectrogramme, c'est à dire la

représentation des fréquences contenues dans le spectre, dont le niveau est

représenté par un barème de couleurs, en fonction du temps. En efet, bon

nombre de ses fonctions agissent directement sur cette représentation

graphique. Par exemple, il est possible de sélectionner une zone spectro-

temporelle du spectrogramme et de la supprimer, retirant ainsi une certaine

partie du spectre du son pendant un temps donné. On peut ensuite venir

reconstruire ces zones par interpolation avec ce qui se trouve autour grâce à

la fonction Spectral Repair, ce qui peut servir à enlever des bruits

indésirables localisés en fréquence et en durée. Une autre fonction

accessible uniquement en stand alone est le Deconstruct qui analyse le

signal et sépare ses composantes tonales du bruit, sans juger du niveau de

ces deux constituants. Il est ainsi possible d'ajuster indépendamment leur

gain. Cet outil permet notamment de diminuer le niveau d'un bruit très fort

par rapport au signal utile, ou à l'inverse d'en ajouter, comme par exemple

pour augmenter le soufle dans l'enregistrement d'une flûte26 .

Izotope RX propose aussi une fonction Connect (disponible à partir de

la version cinq du logiciel), qui permet d'utiliser l'entièreté du logiciel

Izotope RX comme n'étant qu'un plug-in dans une station audionumérique

de travail, rendant ainsi les outils précédent accessibles rapidement dans le

cadre de la production musicale que je m’apprête à efectuer. Néanmoins,

dans le cadre de ce mémoire, je ne me servirai pas de cette connexion

possible et me focaliserai sur les modules plus simples proposés par Izotope

RX. En efet, malgré l'immense potentiel créatif des fonctions telles que le

Spectral Repair ou la suppression de zones au sein d'un spectrogramme qui26 Exemple donné dans le manuel d'Izotope RX 5, p.128.

54

Page 56: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ne sont pas accessibles par simples modules, l'action de ces deux

programmes dépend en premier lieu de la découpe à la main de zones du

spectrogramme à traiter, les possibilités de création sont alors au moins

aussi nombreuses qu'il y a de manières de découper le spectrogramme, soit

quasi infinies. Cette méthode d'utilisation d'Izotope RX à des fins créatives

mérite une étude à part entière, je ne pourrai donc pas traiter ces

problématiques ici.

Travaillant avec les versions quatre et cinq de ce logiciel, il me reste

huit plug-ins à explorer pour la création dont je vais d'abord décrire le

fonctionnement.

Le Dialogue De-noise sert à à atténuer le bruit de fond de prises de son,

particulièrement lorsqu'elles comportent de la voix, et fonctionne comme un

expander-gate27 multibande. Ainsi, lorsque le niveau d'une des bandes de

fréquence du signal passe en dessous du seuil donné, celle-ci est très

fortement atténuée, voire coupée. On peut ainsi régler son seuil, le niveau

maximal qu'il va retirer au signal par bande de fréquences, ajustable en

fonction des zones du spectre grâce à la courbe de réduction. Il comporte

aussi une fonction « Learn (Apprendre) » qui lui permet d'adapter son

traitement par rapport au bruit du signal entrant.

Le De-noise est le module qui contient le plus grand nombre de

paramètres, je ne parlerai donc que des principaux, qui sont d'ailleurs ceux

qui ont été cruciaux pour l'obtention de l'efet. Ce plug-in permet

normalement de détecter le contenu spectral du bruit résiduel d'un27 « Expander » et « Gate » sont deux mots que la littérature spécialisée ne traduit pas.

55

Page 57: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

enregistrement et de le retirer à celui-ci. Contrairement au Dialogue De-

noise, il agit donc à la fois spectralement et dynamiquement car il est

nécessaire que le bruit dépasse un certain seuil pour être efacé (ce qui n'est

pas le cas pour la fonction Deconstruct). Tout comme le plug-in précédent, il

possède une fonction « Learn », un réglage de la réduction et du seuil, mais

aussi une sélection de l'algorithme (du plus rapide au plus précis) et un choix

dans la nature des artéfacts, qu'ils soient plutôt fréquentiels ou dynamiques.

Le curseur du seuil a une fonction un peu diférente car il permet de jauger

l'amplitude entre le seuil de détection du bruit et celui du signal utile, le

niveau d'entrée jouant alors un rôle complémentaire. Il semble que lorsque

certaines zones du spectre dépassent le seuil du signal utile, elle ne sont plus

traitées par l'algorithme, de même lorsqu'elles se trouvent sous le seuil de

détection du bruit, étant alors considérées comme du bruit résiduel à

conserver28. On peut moduler la niveau de la réduction du bruit en fonction

du spectre en dessinant sur celui-ci une courbe de réduction. Dans les

réglages avancés, la taille de la FFT (transformée de Fourrier rapide) tient

aussi un rôle important. Avec une FFT très courte, soit six millisecondes au

minimum, la discrimination fréquentielle est très limitée alors qu'une FFT

plus longue compense ce problème mais demande des temps de calcul plus

long et discrimine moins bien l'aspect temporel du signal. De plus le De-

noise possède une fonction qui va m'être très utile, le “Output Noise Only

(Ne faire sortir que le bruit)” qui, comme son nom l'indique, permet de28 D'après le manuel d'utilisation du logiciel Izotope RX 5, p.109 : « Threshold : controls the amplitude separation of noise and useful signal levels. Higher threshold settings reduce more noise, but also suppress low-level signal components. Lower threshold preserves low-level signal details, but can result in noise being modulated by the signal. »(Seuil : contrôle l'amplitude de la séparation entre le bruit et le niveau de signal utile. De hautes valeurs du seuil réduisent plus de bruit, mais suppriment aussi les composantes à bas niveau du signal. De faibles valeurs de seuil préservent les composantes à bas niveau du signal, mais peuvent résulter en la conservation du bruit dans ce dernier.)

56

Page 58: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

n'écouter que ce que l'algorithme retire au signal, ce qui normalement sert à

vérifier que l'on n'enlève pas trop de signal utile par ce traitement.

La fonction De-click analyse les irrégularités d'amplitude du signal et

les atténue. Elle traite ainsi les clics numériques mais aussi les interférences

téléphoniques, les bruits de bouche, ou par exemple le bruit de défilement

des perforations de bande optique. Ses paramètres principaux sont le choix

de l'algorithme de détection (simple et à bande unique, multibande pour

des clics périodiques et multibande pour des clics aléatoires), la sensibilité

dans la détection de l'amplitude des clics (sensitivity), la longueur

temporelle de la région autour du clic détecté à atténuer (click widening) et

le biais fréquentiel pour la détection (frequency skew). Pour ce dernier

paramètre, lorsque ce bais tend par exemple vers le haut du spectre, le

module aura une sensibilité plus élevée aux clics qui contiennent beaucoup

de fréquences aiguës, et inversement. Le réglage du type de clic n'est

finalement qu'un préréglage puisqu'il dépend des autres paramètres. En

outre, le De-click possède aussi une fonction “Output Clicks Only”. La

fonction du De-crackle est similaire. Il est décrit comme servant à retirer des

« clics proches les uns des autres et souvent plus faibles en volume [que les

autres clics] qui sont décrits subjectivement comme des crépitements »29. Il

possède les mêmes réglages de sensibilité de détection, de biais fréquentiel

pour celle-ci et la possibilité de ne récupérer que les “crackles”, mais le choix

de son algorithme se limite à un réglage de qualité de celui-ci.

29 « When an audio signal contains many clicks close together, ofen lower in volume, this is described subjectively as crackle. » D'après le manuel d'utilisation du logiciel Izotope RX5.

57

Page 59: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Le module Ambiance Match permet, en analysant un extrait d'une prise

de son, de prendre une empreinte de son bruit de fond, et de l'appliquer à un

autre enregistrement pour faire coïncider leur raccord, ou même d'en faire

un fichier sonore à part entière permettant d'imiter un silence raccord qu'on

n'aurait pas pu faire en tournage. Ce plug-in ne propose pas vraiment de

réglage, si ce n'est le choix de l'extrait à analyser.

Le De-hum est un filtre composé de plusieurs coupe-bandes au facteur

de qualité très élevé qui permettent ainsi de retirer chirurgicalement le buzz

(ou ronflement en français) créé par l'alimentation électrique et ses

harmoniques. Ses réglages permettent simplement de contrôler les

paramètres du filtrage, c'est donc un traitement plutôt trivial qui n'opère pas

d'autre transformation sur le son.

Le programme De-reverb, comme son nom l'indique, retire la

réverbération des prises de son, tant les premières réflexions que les queues

de réverbération, grâce à un système qui agit à la fois sur le plan dynamique

(comme une gate) et fréquentiel. Il possède une fonction “Learn”, un

paramètre de réduction, un contrôle du lissage des artéfacts, puis un réglage

du profil de la réverbération en prenant en compte sa longueur et son allure

spectrale.

Enfin, le De-clip élimine la saturation d'un signal en interpolant sa

forme d'onde pour recréer ses courbes. Il l'évalue en étudiant l'énergie des

échantillons sonores, ainsi lorsqu'on observe un répartition irrégulière de

ces derniers et qu'ils se concentrent dans les niveaux les plus forts, cela

58

Page 60: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

signifie généralement que le signal a subi une saturation. On peut alors

régler le seuil de détection de celle-ci et la qualité de l'interpolation

réparatrice.

b – Essais pour l'obtention de nouvelles textures avec la suite

Izotope RX

Je vais procéder par élimination pour ne conserver que les traitements

qui, d'après moi, produisent un efet intéressant. Je peux donc tout d'abord

rayer de cette liste le Dialogue De-noise car toutes mes tentatives pour

abîmer le son en poussant ses paramètres en butée se sont révélées

infructueuses. Étonnamment, ce traitement ne provoque quasiment pas

d'artéfacts. De plus il n'est pas possible d'en récupérer uniquement la partie

soustraite au signal, qui aurait peut-être pu donner une texture intéressante.

De toute façon, même en efectuant cette fonction manuellement en

additionnant l'enregistrement et sa version traitée en hors phase, je

n'obtiens pas d'artéfacts. Je retire aussi d'emblée à cette liste le De-hum car

ce traitement n'est finalement qu'un filtrage, la transformation du son qu'on

obtient est donc plutôt reconnaissable et peu novatrice.

Le résidu obtenu avec le module De-crackle en enclenchant l'option

“Output Crackles Only” est très dificilement utilisable. Son énergie est

surtout contenue dans le haut et très haut du spectre, les graves et médiums

y étant très peu représentés. La voix n'y est quasiment plus reconnaissable,

même en utilisant les paramètres qui provoquent la plus forte dégradation

59

Page 61: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

du son, et donnent donc le résidu le plus fourni. On en obtient surtout les

bruits de bouches, claquements de la langue et des lèvres, et une partie des

consonnes dévoisées30. Ainsi, si on cherche à ajouter ce son transformé à la

voix naturelle, pour obtenir un efet tout en conservant la compréhension, il

en résulte surtout une élocution dont tous les bruits buccaux auraient été

amplifiés et contenant beaucoup de fréquences très aiguës, ce qui est

finalement très désagréable à écouter. Même en filtrant drastiquement ce

signal transformé à l'aide d'un filtre passe-bas, il n'en demeure, d'après moi,

pas plus utilisable. Je retire donc aussi ce plug-in de la liste des efets à

explorer.

Je commence à porter plus d'intérêt à la fonction Ambiance Match.

Cependant, ce module étant très eficace, dès que je lui propose de détecter

un bruit de fond, ne serait-ce qu'à partir de quelques syllabes chantées, j'en

obtiens de manière très réaliste l'ambiance de la salle dans laquelle j'ai

enregistré. Pour tromper le logiciel et le forcer à faire des erreurs, je lui mets

en entrée l'extrait sonore le plus court possible, ne comportant qu'un bout

de voyelle. En efet, dès qu'une consonne est détectée, Ambiance Match

comprend que la voyelle suivante que je cherche à lui faire reproduire n'est

pas un dénominateur commun sur tout l'extrait, elle n'est donc pas détectée

comme étant un bruit de fond. En prenant toutes ces précautions, le résultat

est très intéressant. La voyelle est comme figée par la reproduction, tout

comme la hauteur à laquelle elle est chantée, et ce sur la durée souhaitée

puisque “l'ambiance” recréée doit pouvoir se prolonger à l'infini.

Néanmoins, on ne peut pas conserver l'élocution par cet efet et donc lui

30 C'est-à-dire qui n'impliquent pas l'utilisation des cordes vocales pour leur prononciation mais uniquement du soufle. Cela explique pourquoi le résidu obtenu contient très peu de graves et beaucoup de sibilance.

60

Page 62: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

faire porter un texte entier, il ne pourrait qu'être présent en renfort, destiné à

ajouter de nouvelles textures en parallèle du texte et ne pouvant donc pas

être une des composantes du grain de la voix. Aussi, la texture obtenue est

très proche de ce que peut donner un plug-in comme Freeze de la suite des

GRM Tools, qui efectue d'emblée cette manœuvre de détournement car il

sufit d'appuyer sur le bouton “Freeze” pour figer la voyelle en direct. Ce

mésusage de l'Ambiance Match n'est donc pas tout à fait novateur.

Pour ce qui est du programme De-reverb, lorsqu'on pousse ses

paramètres à fond, on obtient surtout des artéfacts dynamiques : on a

l'impression de faire pomper un compresseur. Néanmoins, avec la fonction

“Output Reverb Only” il en résulte une matière plus originale. Sur la voix,

l'altération fréquentielle va retirer en priorité dans le spectre les zones

fréquentielles aux faibles niveaux, qui serait plus probablement issus de la

réverbération que du son direct. Sur le spectre résiduel obtenu, il manque

alors de temps en temps certaines harmoniques de la voix (car trop

proéminentes pour avoir été considérées comme de la réverbération) et

certaines zones fréquentielles formantiques. Ainsi, c'est la prononciation et

le timbre de la voix qui sont altérés, on touche ici à une transformation

significative du grain de la voix. Cependant, cette transformation reste assez

légère et le point négatif de ce traitement est le fait que les attaques des

notes ne peuvent jamais être considérées comme de la réverbération, il

manque donc tous les débuts des mots lorsqu'on utilise la sortie “Output

Reverb Only”, ce qui est dommage pour la compréhension du texte.

61

Page 63: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Finalement, les traitements proposés par la suite Izotope RX qui ont le

plus retenu mon attention par leur résultat inhabituel mais exploitable et

leur facilité à être détournés sont le De-click, le De-noise et le De-clip. Au

cours des tests, je trouve que le De-click est plus intéressant lorsqu'on

enclenche la fonction “Output Clicks Only”. Ainsi, on en obtient des sortes de

“granules” de voix sans pour autant que cela ne ressemble à de la

granulation classique. Dans cette configuration, je pousse la sensibilité de

détection au maximum pour entendre assez de matière afin de reconnaître

la voix. Dans ce cas, le “clic widening” va jouer sur l'impression de

granulation de la voix. Plus il est bas, plus la voix sera abimée et la texture

distordue, on reconnaitra moins l'aspect vocal du son et le bas du spectre

sera moins audible. En efet, lorsque la découpe autour des clics est de

l'ordre de la milliseconde, il devient plus dificile pour la reproduction de

faire entendre le spectre en dessous de 1000Hz puisque la période des

sinusoïdes dont la fréquence est inférieure sera tronquée au sein de chaque

“granule” de son. En passant l'algorithme sur la détection de clics

périodiques, la texture est plus fournie et régulière mais donne un aspect

plus robotique à la voix alors que la détection simple est plutôt imprévisible

et fonctionne mieux en renfort d'un autre son.

Je teste d'emblée le De-noise en “Output Noise Only” pour en extraire

un résultat plus franc. Dans ce cas, je préfère garder le “threshold” au

minimum et gérer l'altération plutôt avec le niveau d'entrée du signal. Le

paramètre de réduction complète ces réglages en contrôlant la quantité de

bruit à retirer en décibels. Cependant, sa limite étant celle du niveau du

signal lui-même, on retrouvera ce dernier intact en “Output Noise Only” si la

62

Page 64: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

réduction est poussée au maximum, et aucun son ne sortira s'il le curseur est

au minimum, il faut donc trouver un équilibre à cette réduction qui dépend

vraiment du son en entrée. Ainsi, dans l'utilisation que j'en fais, je considère

que le réglage du seuil devient une sorte de “Dry/Wet” (balance entre signal

traité et signal brut) de mon efet, le niveau d'entrée serait un “taux de

distorsion” et le paramètre de réduction en serait le niveau d'entrée, puisque

ce dernier agit aussi sur la proportion de la distorsion. D'ailleurs, ces

réglages étant très sensibles quant à la teneur des artéfacts en sortie, il vaut

mieux compresser très fortement le signal en entrée pour obtenir un rendu

homogène.

Pour obtenir une distorsion spectrale bien évidente, je place le curseur

de contrôle des artéfacts sur “musical noise” (bruit musical). La taille de la

FFT joue aussi un rôle en renforçant la transformation du son lorsqu'elle est

au minimum. Cependant, une FFT plus longue donne aussi des résultats

intéressants plus proches de la voix naturelle. Enfin, quand on applique la

fonction “Learn” au signal lui-même (devant normalement être appliquée

sur un passage ne contenant que du bruit), on modifie aussi fortement le son

en sortie. Sans elle, ce sont toujours les zones spectrales les plus faibles qui

font réagir l'algorithme, les considérant alors comme du bruit, ce qui a

tendance à colorer fortement le spectre en sortie. Il est alors important de

limiter ce biais grâce à la courbe de réduction, qui module l'influence du

paramètre de réduction en fonction des fréquences. En utilisant la fonction

“Learn”, les artéfacts sont beaucoup plus homogènes en fréquence, bien que

la voix en soit plus fortement déformée.

63

Page 65: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Le De-clip est le seul des trois plug-ins qui opère une véritable

transformation du son et non juste une découpe fréquentielle et temporelle

de celui-ci. Cette propriété du De-noise et du De-click rend d'ailleurs leur

usage contre intuitif : lorsqu'on additionne plusieurs sons traités par ces

modules, la transformation totale qui en résulte est plus faible que la

transformation de chacune des parties ajoutées, car finalement on

reconstruit le signal par ce procédé. Le De-clip ajoute donc des artéfacts qui

ne sont pas contenus dans le signal d'origine, il donne notamment

l'impression de diminuer la hauteur du son en entrée avec un efet de

“gargouillement”. Poussé au maximum, l'élocution étant bien respectée, on

dirait que la voix est émise par une technique de chant guttural utilisée

principalement dans la musique métal. En l'employant avec plus de

parcimonie, il déforme les formants et confère à l'interprète une apparence

monstrueuse.

Ainsi, ce sont ces trois derniers modules que je vais utiliser pour

composer mon morceau, malgré l'intérêt que je porte aux autres traitements

de la suite Izotope RX. L'idée est aussi d'éviter la multiplication d'efets

diférents au sein d'un seul morceau qui pourrait alors s'apparenter à un

étalage de mes essais. Je vais néanmoins essayer de faire varier ceux-ci au

cours de la composition et de les associer entre eux pour un rendu plus

riche.

64

Page 66: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

c – Les acteurs de la création

Avant tout, je cherche à ancrer le morceau que je vais composer dans

des processus de création et de difusion réalistes, bien qu'il fasse l'objet

d'une recherche autour du détournement d'efets. Ainsi, je décide de

composer cette pièce de musique électronique avec le logiciel Ableton Live,

recommandé par mes pairs pour cette tâche et je le mixerai avec Pro Tools,

mon outil de travail habituel. J'enregistrerai des maquettes chez moi avec

mon micro personnel (un Sennheiser MK4, micro statique à large membrane)

pour vérifier la pertinence de la composition vocale mais l'enregistrement

final sera réalisé dans la régie radio de l'école Louis Lumière, avec un

Neumann TLM103. Une fois achevé, ce morceau sera accessible sur le site

Soundcloud, qui permet la difusion de musique et autres podcasts tout aussi

bien par des amateurs que par des professionnels, et sera partagé via mes

réseaux de communication personnels (bouche à oreille, page Facebook, et

messagerie numérique). De ce fait, ce morceau sera réalisé et difusé comme

je l'aurai fait si cette première composition n'était pas destinée à répondre

aux attentes d'un mémoire. D'ailleurs, pour obtenir des retours du public, je

vais tenter de rendre le questionnaire que je cherche à faire remplir le moins

intrusif possible en en faisant un formulaire Google Forms dont je proposerai

de cliquer sur le lien seulement une fois le morceau écouté. En outre, je

tiendrai compte des retours informels qui bien qu'ils puissent être biaisés si

mes connaissances souhaitent m'encourager, sont les seuls retours que

j'aurais obtenus naturellement.

65

Page 67: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

J'espère que ce morceau plaira à un public large et varié car cela

indiquerait que n'ai pas trop penché du coté de la musique expérimentale,

en marge de la production actuelle, et que mes procédés de composition

n'auront pas été trop hermétiques et auront transmis les émotions que je

cherche à partager. Cela montrerait aussi qu'il est bien possible et peut être

même profitable d'inclure de nouveaux efets dans la musique actuelle,

j'apporterai donc une attention particulière à la réception de l'efet par le

public.

Je travaillerai sur cette composition avec l'aide de Yohan Boisgontier,

co-producteur sur cette création. Ainsi, c'est avec lui que je discute de la

direction à prendre avant de composer et du placement de ma voix dans le

morceau. Au cours de nos écoutes communes, nous nous mettons à

imaginer un morceau très lent mais à la rythmique lourde et agressive, mais

à l'harmonie simple permettant une grande liberté mélodique pour la voix,

caractéristiques que je conserverai par la suite. Je composerai d'abord la

première maquette seule puis il la commentera et la complétera pour me

donner de nouvelles directions à développer pour la seconde, et ainsi de

suite jusqu'au résultat final. Ce sont donc bien mes idées que je mets en

musique tout en profitant des connaissances de Yohan en matière

d'arrangement et de ses influences. Il apportera ainsi au morceau ses

références en trap31 tandis que je composerai plutôt selon mes repères en

trip-hop. Néanmoins, dès la première maquette, la direction que j'emprunte

31 Courant musical émergeant au début des années quatre-vingt dix héritant du hip-hop et popularisé par les producteurs de musique électronique qui se caractérise par l'utilisation du TR-808 pour la basse, la prédominance de fréquences très graves dans la composition, la présence répétés de doubles croches, triolets et autres divisions temporelles très courtes pour la rythmique, sans pour autant exclure un contenu lyrique et des nappes de synthétiseurs dans la composition.

66

Page 68: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

est déjà située à l'intersection de ces courants musicaux, ce qui facilite cette

hybridation.

Une seconde actrice majeure de cette composition réside en la

personne d'Aloyse Launay qui me conseillera dans l'élaboration de

l'harmonie mais qui surtout me donnera des cours de coaching

(entraînement) vocal. Après m'avoir appris quelques exercices

d'échaufement, nous travaillons rapidement sur le texte et la mélodie du

morceau au cours de séances de chant intenses. La technique d'Aloyse est de

me faire prendre conscience de tous les paramètres de ma voix à chaque

instant, quitte à me mettre en dificulté dans un premier temps pour chanter

avec émotion. Néanmoins, cela me permet ensuite de mieux la maitriser et

d'être plus précise sur mes intentions, même quand je ne me soucie plus des

aspects techniques. Au cours des séances, elle m'arrête donc à quasiment

tous les mots pour me mettre en garde sur la prononciation, la hauteur,

l'accentuation dynamique, le vibrato (souvent indésirable), la quantité de

soufle, l'ouverture de ma bouche et l'ouverture du fond de mon palais.

Grâce à ces cours, je me rends compte que ce que je jugeai n'être possible

que par la spontanéité et l’intuition se révèle être entièrement

paramétrables lorsqu'on maîtrise tous les aspects de sa voix. Je réalise ainsi

que je suis bien loin d'un tel niveau de virtuosité et que malgré ma grande

expérience en chorales et comédies musicales, chanter en soliste est bien

plus exigeant et requiert beaucoup de travail.

Enfin, Benoît Fleury me prêtera sa station de travail audionumérique

pour la fin de la production et le mixage, me permettant un grand confort de

67

Page 69: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

travail. Aussi, étant mon colocataire, son omniprésence dans les moments

où je compose en fait une oreille extérieure eficace mais néanmoins

impliqué. Il m'aide alors à prendre le recul nécessaire lorsque je n'y parviens

plus et met en lumière des défauts que je n'aurai pas relevé seule. En efet, la

particularité de la composition que j'entreprends est que j'occupe tous les

postes de la production à la fois : Je suis compositrice, arrangeuse,

réalisatrice, chanteuse, mixeuse et ingénieure de mastering. Il n'y a donc

quasiment aucun moment où ce projet rencontre un acteur autant impliqué

que je le suis qui pourrait lui donner un peu de fraîcheur, si ce n'est Yohan

dans la phase d'arrangement et de réalisation et pour l'enregistrement de la

voix (nous travaillons néanmoins en binôme, il n'occupe pas seul ces

postes). Cette dificulté est renforcée par mon inexpérience totale en

composition. En efet, je n'ai jamais composé, arrangé ou réalisé de morceau

de musique, je n'ai jamais utilisé le logiciel Ableton Live à ces fins et je n'ai

jamais chanté en tant que soliste. La réalisation de cette partie pratique de

mémoire est donc un véritable défi pour moi, mais constitue aussi une

expérience intéressante à décrire puisque j'y rencontre tous les afres et les

joies de la composition sans aucun a priori.

d – Le choix du thème et des paroles

Avant de me lancer, je ne perds pas de vue le fait que ce morceau se

destine à accueillir des efets appliqués à la voix. C'est un paramètre que

j'aurai du mal à prendre tout à fait en compte au cours de la composition car

je découvre que j'ai beaucoup de dificultés à me projeter dans le morceau

68

Page 70: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

fini à chaque étape, il m'est donc très dificile d'imaginer les efets avant que

je ne les y intègre. Je préfère ainsi me préparer à leur arrivée dès l'écriture

des paroles, que je rédige d'ailleurs dans un premier temps sans tenir

compte de leur intégration rythmique dans la composition (puisqu'il m'est

très dificile d'imaginer leur rendu). Je trouve la mélodie de la voix

intuitivement en tentant de chanter le texte sur la musique et adapte les

mots pour le faire coïncider rythmiquement.

De mes recherches efectuées précédemment, je retiens qu'ajouter un

efet permet souvent d'exprimer l’indicible, il met à nu les émotions du

chanteur ou de la chanteuse en les imprimant dans la matière même de la

voix et non plus seulement dans le texte. Il se comporte comme une

composante du grain de la voix lorsqu'il altère l'élocution et le timbre et peut

créer chez l'auditeur ou l'auditrice un sentiment d'inquiétante étrangeté en

modifiant la représentation morphologique de l'interprète. Aloyse

m'encourage à écrire un texte sincère pour faciliter son expression par le

chant, le morceau commençant déjà au moment de l'écriture à prendre une

tournure plutôt mélancolique, je choisis d'écrire un texte sur l'anxiété et la

dificulté du lâcher prise, sentiments très prégnants durant cette période de

mémoire et de composition musicale.

Ainsi, je décris l'idée selon laquelle perdre l'état de conscience généré

par l'anxiété donne l'impression de perdre en substance, le lâcher prise

s'accompagne d'une perte de contrôle et de sensations qui peuvent s'avérer

dificile à accepter. En somme, c'est un texte sur l'anxiété à l'idée de ne plus

être anxieuse. Dans ce texte, je m'adresse au sentiment de confiance lui-

69

Page 71: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

même, qui finit donc par m'avoir et d'une certaine manière à m'assommer.

Je travaille autour du champ lexical du corps dans lequel la perte

d'émotions se somatise mais aussi sur celui de la météo qui représente

métaphoriquement ces dernières. Les saisons sont alors les successions

d'états d'âme, la chaleur, “heat” en anglais se traduit aussi par l'idée

d'ardeur des sentiments, l'orage est la colère et les pluies salées sont les

larmes. L'organisation plutôt chaotique de ces idées dans le texte traduit

ainsi mon état de détresse au moment du lâcher prise. Je vais donc tenter,

par la composition et l'interprétation vocale, de porter ces émotions plutôt

contradictoires, entre l'inéluctable délivrance de l'angoisse et la nostalgie

précoce quant à cet état alerte régi par des sensations intenses. D'ailleurs, je

chanterai ce texte avec une certaine forme d'apathie, soulignant l'aspect

fatal de la situation et la disparation des émotions qui l'accompagne.

Enfin, j'ai décidé d'écrire ces paroles en anglais bien ce ne soit pas ma

langue maternelle car d'une part je me projette musicalement mieux dans

cette langue. En efet, tous mes morceaux de référence sont chantés en

anglais. D'autre part, j'avais peur que l'utilisation d'un efet sur la voix,

lorsque ce dernier gêne la compréhension du texte, soit très perturbante

pour l'auditeur si le morceau est en français. On a l'habitude de comprendre

très distinctement les voix des morceaux chantés en français, qui sont

d'ailleurs souvent mixées plus fort, on pardonnera donc sans doute mieux

certains masquages par l'efet dans un texte en anglais.

70

Page 72: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Brained – Partie pratique de mémoireParoles et leur traduction

* Dans le morceau, « peace appears » s'entend aussi volontairement « disappear(s) ». Cette phrase signifierait alors : « Mais ils disent : “Disparais” ».

** « Brained » se traduit aussi par « cérébral ». La première partie de la phrase « You got me » souligne l'idée de se faire avoir.

71

A whisper in my chestStands against the clime

My seasons need some restTime

Breathing slows as you come backThank you for filling the lack

Pouring down along your spineI'm merging matter and divine

No more nerves in my fingersNeither blood under my lips

Cauterized as my angersFeelings heal but have no grip

Everything has retracted

Everything has been containedAnd soon...

The thought in my chest

Will dry up the soreMy seasons take rest

Time is no more

Indolence is realAphasia is near

My senses congealBut they say peace appears*

Everything has retractedEverything has been contained

Soon, I know, I will be subtractedFrom me. Once more, you got me brained

Un murmure dans ma poitrineLutte contre le climatMes saisons ont besoin de reposDe temps

Le soufle ralentit à ton retourMerci de combler le manqueM'écoulant le long de ton échineJe fusionne la matière et le divin

Plus de nerfs dans mes doigtsNi de sang sous mes lèvresCautérisés comme mes colèresLes sentiments guérissent mais n'ont pas de prises

Tout s'est rétractéTout a été contenuEt bientôt...

La pensée dans ma poitrineVa sécher la plaieMes saisons se reposentLe temps n'est plus

L'indolence est réelleL'aphasie est procheMes sens coagulentMais il disent que la paix apparaît

Tout s'est rétractéTout s'est contenuBientôt, je le sais, je serai soustraiteÀ moi même. Une fois de plus, tu m'as assommée**

Page 73: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

*** « Heat » étant associé au champ lexical de la météo signifie « la chaleur » mais peut aussi désigner « l'ardeur des sentiments »

**** Au sens figuré et familier, « brain dead » signifie aussi « stupide ». Cela se rapproche du sens français du mot « mort » dans la phrase : « Je suis mort, je n'arrive plus à réfléchir ».

72

Indolence is realAphasia is near

My senses congealBut they say peace appears*

Everything has retractedEverything has been contained

Soon, I know, I will be subtractedFrom me. Once more, you got me brained

Heat sank into cloudsStorm choked in your shrouds

No one ever remembersThe salty rains of Novembers

Everything has retractedEverything has been contained

And soon, I know, I will be subtractedFrom me. Once more you got me brained

You got me brainedYou got me brain dead

You got me brainedYou got me brain dead

L'indolence est réelleL'aphasie est procheMes sens coagulentMais il disent que la paix apparaît

Tout s'est rétractéTout s'est contenuBientôt, je le sais, je serai soustraiteÀ moi même. Une fois de plus, tu m'as assommée**

La chaleur*** a plongé dans les nuagesL'orage s'est étranglé dans tes haubansPersonne ne se souviens jamaisDes pluies salées des mois de novembre

Tout s'est rétractéTout a été contenuEt bientôt, je le sais, je serai soustraiteÀ moi même. Une fois de plus, tu m'as assomméeTu m'as assomméeTu m'as mise en état de mort cérébrale****Tu m'as assomméeTu m'as mise en état de mort cérébrale

Page 74: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

2) RÉALISATION D'UNE PIÈCE DE MUSIQUE

ÉLECTRONIQUE

a – La création de la première maquette

Je commence ma composition en plaçant une nappe du clavier

Canadian Board, dont je module l'amplitude par deux LFO (Low Frequency

Oscillator, oscillateur à basse fréquence en français) à la forme d'onde

carrée, ce qui donne les sautes rythmiques de volume du son. Je commence

par définir une première grille pour le couplet qui sera : ré mineur/mi

majeur/ré mineur (premier renversement)/mi majeur. Comme j'aime

beaucoup la texture discontinue de ce clavier, je me plais à laisser trainer en

longueur ces nappes, ce qui finit par définir le tempo du morceau : 116

battements par minutes. Yohan me fera remarquer que bien que ma session

soit calibrée sur cette valeur, le tempo perçu se situe plutôt à la moitié de

celui-ci, 58bpm, ce qui est extrêmement lent. Néanmoins, j'apprécie la

sensation de lourdeur que cela apporte au morceau et le conserve. Cette

lenteur me permettra d'ailleurs de développer facilement quelques

rythmiques ternaires, ce que je fais donc pour la caisse claire et plus tard

pour la voix. J'aime l'impression de roulement et de flottement que ce

mélange binaire/ternaire apporte au morceau. Je duplique ensuite le

module du Canadian Board pour remplacer la forme d'onde de son

générateur par une forme d'onde carré aléatoire, toujours modulé par le

même LFO. Il en résultera le bruit rose à l'enveloppe discontinue qui traverse

le morceau.

73

Page 75: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Je compose ensuite le motif de la batterie qui restera intact jusqu'à la

version finale, mis à part quelques breaks ajoutés par Yohan. Cependant, il

va considérablement m'aider à modifier les sons que j'ai choisis. Il

commence par me faire remarquer que j'ai utilisé une grosse caisse tonale,

issue d'un Roland TR808, qui rentre donc en conflit avec l'harmonie du

morceau. Il me propose donc de la remplacer par un son plus précis avec

plus d'impact et de faire de ma première grosse caisse la basse du morceau,

en faisant évoluer sa hauteur. Il enrichit le reste du kit de batterie de

sonorités trap et ajoute un son d'impact réverbéré sur le refrain. Avant son

intervention, ma basse est générée par un sample de clavier analogique

proposé par Ableton dont le son ne me plaît pas tout à fait et que je ne peux

pas modifier puisque je n'ai pas accès à une émulation de ce clavier. Nous

arrivons avec Yohan à obtenir un son similaire et modulable grâce à une

émulation de synthétiseur Arturia miniV, qui sera conservé sur les refrains de

la version finale.

La base mélodique qui m'a servie à composer les refrains est celle

jouée à la cloche. À partir de celle-ci, j'en déduis une progression

harmonique qui sera : la mineur/mi majeur/mi majeur septième de

dominante/la mineur. C'est finalement une progression classique mais très

eficace. Dans un premier temps, je voulais que cette mélodie soit jouée par

des cordes, mais n'arrivant pas à trouver un son assez réaliste, j'essaye

quelques simulations d'instruments au hasard et finis par décider que le son

de cloche me plaît beaucoup. Je prolonge les instruments du couplet sur le

refrain en les adaptant à l'harmonie, et c'est ainsi que j'achève une première

maquette de ce morceau. À sa première écoute, Yohan constate que le

74

Page 76: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

morceau possède déjà une couleur trap très prononcée, notamment dans

l'utilisation des cloches sur le refrain car c'est une pratique assez courant

dans ce style. C'est d'ailleurs surement pour cela que j'avais l'impression

que cette association fonctionnait bien. Il me reproche d'être un peu frileuse

sur l'utilisation de synthétiseurs plus aigus, j'ai en efet tendance à vouloir

ajouter toutes mes nouvelles lignes mélodiques dans le bas. Ce n'est pas

étonnant étant donné mon influence majeure qui réside en la personne de

Gesaflestein. Mike Lévy, de son vrai nom, est un compositeur de musique

électronique aux sonorités très sombres et à l'esthétique minimaliste. La

prédominance de la basse dans ses compositions m'inspire beaucoup.

Finalement, ce que je regrette de n'avoir pas conservé de cette

maquette est son minimalisme et sa clarté. Les éléments sont peu

nombreux, on prête alors plus attention à leur timbre et on comprend bien la

composition. Je ne m'attendais pas à ce que l'ajout de la voix, testé à partir

de la troisième maquette (il y en aura quatre en tout avant que je débute le

mixage), brouille autant la compréhension du reste. Cela est aussi dû aux

efets que j'appliquerai dessus qui prennent beaucoup de place et à ma

volonté de superposer plusieurs prises vocales sur les refrains. Après cette

maquette, j'ai surtout continué à composer en surenchérissant à chaque

étape, rendant le résultat très dense, mais ce n'est pas un mal non plus. Je

pense que je n'osais pas retirer des éléments lorsque j'avais la sensation

qu'ils fonctionnaient avec le reste, de peur de ne pas réussir à retrouver un

autre son à la fonction équivalente. Un autre biais de “débutant” qui m'a

poussé à charger ma composition est le peu de confiance que j'attribuais à

chaque synthétiseur, craignant de me rendre compte au mixage qu'ils ne

75

Page 77: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

s'intègrent pas du tout au reste. Cette crainte est plutôt paradoxale

puisqu'étant ingénieure du son, c'est mon métier de me projeter dans de la

matière imparfaite et imaginer comment la mettre en forme pour en obtenir

le meilleur résultat. Pourtant, je n'y arrivais pas du tout lors de l'étape de

l'arrangement. Dans un processus de production normal, le réalisateur ou la

réalisatrice du titre efectue un pré-mixage de celui-ci pour avoir une idée du

rendu et c'est le mixeur ou la mixeuse qui reprend la matière initiale pour

rendre le mix final. Dans mon cas, je ne souhaitais pas passer par deux

étapes successives de mixage sachant que l'apport principal de ce processus

est le regard extérieur du mixeur ou de la mixeuse, mais c'est peut-être à

cause de ce choix que j'ai eu du mal à anticiper le rendu de

l'instrumentation.

b – Les ajustements et le choix de la structure

Un problème se pose lors de la construction du morceau : les couplets

s'enchainent très bien avec les refrains, mais le retour des refrains aux

couplets est un peu bancal, bien que l'enchainement harmonique se fasse

entre deux tons voisins. Pour pallier à ça, Benoît m'encourage à utiliser un

post-refrain, une ou deux mesures sur un autre accord permettant un

enchainement plus naturel. Je me rends compte que la dificulté que j'ai à

placer un accord avant la reprise du couplet est aussi liée à une erreur de ma

part. En efet, j'ai mal programmé ma première ligne de synthétiseur

Canadian Boards en oubliant de placer un ré pour l'accord de ré mineur, ce

qui donne une incertitude sur la couleur de l'accord (ré mineur pour ré-fa-la

76

Page 78: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ou fa majeur si les notes étaient fa-la-do). Je me dis que finalement,

commencer par un accord de fa majeur est plutôt intéressant, ça nuance la

coloration mineure très marquée malgré les accords de mi majeur. Entre

temps, Aloyse me donne quelques conseils sur l'harmonie et juge que le

troisième accord de ré mineur sur mes couplets n'est pas très heureux.

Compte tenu de tous ces problèmes, je fini donc par réécrire toute la grille et

la transforme en fa majeur/mi majeur/mi majeur septième de dominante/la

mineur. Elle s'approche donc beaucoup de la grille des refrains mais

fonctionne bien mieux. En efet, l'alternance des accords de ré mineur et mi

majeur ne donnait pas vraiment de moment de résolution à la grille et

laissait place à peu de variation pour les instruments.

Au cours des deuxième et troisième versions de la maquette, je trouve

enfin un son de synthétiseur basse qui me plaît avec le preset “Analogue

Classique 1” du module Massive, dont je retouche l'enveloppe pour obtenir

de longues tenues de notes. J'aime beaucoup la densité de ce son de basse

et sa richesse dans les médiums, il s'associe aisément au son du TR 808 qui

lui est très riche en graves et extrême graves mais reste très sourd. J'ajoute

enfin un synthétiseur aigu avec le preset “Drashtail” du FM8 de Arturia, sorte

d'imitation de clavecin. Ces ajouts de synthétiseurs sont laborieux car je

connais très mal les plug-ins que j'emploie et les claviers qu'ils émulent. Je

préfère continuer à composer de manière intuitive et éviter de lire toute la

documentation les concernant, aussi pour gagner du temps, mais cela fait

que n'ayant pas pu les prendre complètement en main avant de les utiliser,

je suis condamnée à tester un à un les presets qu'ils proposent et à deviner

l'influence de leurs réglages au fur et à mesure. Pour cette tâche, ma

77

Page 79: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

formation en ingénierie sonore est plus que nécessaire car je comprends

rapidement le trajet du signal (et même des signaux) dans les synthétiseurs

modulaires et connaît déjà la plupart des intitulés des potentiomètres.

Néanmoins, cette manière de procéder couplée à ma dificulté à me projeter

dans le résultat final fait que j'ai tendance à conserver un son lorsqu'il me

rappelle un autre morceau de musique. Par exemple, le simili-clavecin du

FM8 me rappelle fortement le clavecin utilisé par Archive dans les refrains du

morceau You Make Me Feel. Dans ce cas, ce son est utilisé en alternance avec

le reste de l'instrumentation pour donner une sensation d'acoustique et

contraster avec la composition très dense. Aussi, la ligne de basse

synthétisée par le module Massive me fait penser aux claviers utilisés dans la

synth-wave32, notamment dans les compositions de Carpenter Brut dans

lesquelles un clavier grave, s'il est assez riche en harmonique, peut prendre

une place centrale dans la composition en jouant la mélodie principale.

Finalement, j'expérimente le nœud de la création musicale populaire.

On a beau vouloir chercher à innover, inventer, il n'en demeure pas moins

qu'il faut que le morceau “fonctionne”, c'est-à-dire qu'il plaise au plus grand

nombre, qu'il touche les auditeurs et auditrices. Néanmoins, le moment où

le compositeur ou la compositrice sent que le morceau commence à évoquer

quelque chose chez lui ou elle, c'est souvent parce qu'il lui fait penser à un

autre titre. On se retrouve donc dans un schéma d'imitation, conscient ou

non. Ainsi, moi qui craignais d'aboutir à une création trop expérimentale et

éloignée de la production actuelle, je me rends compte que je n'étais pas

32 La synth-wave est un genre musical qui se popularise au début des années 2010. Ce genre est caractérisé par une forte influence de la musique des films des années 1980 qui tend à l'imitation, une prédominance des claviers analogiques dans la composition et une imagerie rétro-futuriste qui l'accompagne.

78

Page 80: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

aussi neutre que je le pensais au début de la composition car déjà fortement

influencée par mes habitudes d'écoute. Si je devais recréer un morceau, je

pense que je me briderais moins et pousserais les expérimentations quitte à

retirer après ce qui ne fonctionne pas. En outre, un autre frein à

l'expérimentation est l'utilisation du logiciel Ableton Live qui oriente le

processus de composition en facilitant la réalisation de certaines tâches et

en en rendant d'autres impossibles. Il m'aurait ainsi fallu une plus grande

expérience de ce logiciel pour le pousser dans ses retranchements et accéder

à ses fonctions les plus complexes, tandis que dans mon cas je découvrais

une à une les fonctions de base.

c – Le travail sur la voix

Pour la composition de la voix, je commence par enregistrer des

morceaux de texte que j'ai déjà écrit en improvisant des lignes mélodiques et

leur placement rythmique. Étonnamment, il ne m'aura fallut que deux essais

pour trouver la mélodie finale. Ayant le morceau Paradise Circus de Massive

Attack en tête à ce moment, je réalise que j'imite sans le faire exprès le ton

de la chanteuse Hope Sandoval sur ce titre. Ainsi, je murmure presque le

texte, ce que je corrigerai sur les prises vocales définitives pour éviter que la

référence soit trop évidente (Yohan la décelant dès la première écoute), mais

par contre je m'inspirerai du mixage de la voix de ce morceau pour les

moments où ma voix n'est pas traitée. À la suite de ces premiers essais, je

modifie juste quelques mots pour que la diction soit plus simple et je rajoute

du texte. En efet, au début je ne chantais qu'une phrase sur deux par

79

Page 81: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

rapport à la dernière version, ce qui donnait l'étrange impression qu'il

manquait des mots. Finalement ce problème s'est résolu bien qu'à la

réécoute je trouve le texte très dense et la voix un peu trop omniprésente.

Néanmoins, le rythme ternaire de la voix est intéressant et contrecarre la

pesanteur apportée par les efets.

Une dificulté que je n'avais pas anticipé apparaît lorsque je

commence à travailler le chant avec Aloyse. J'ai écrit malgré moi une ligne

mélodique très dificile à chanter sur les refrains. Elle comporte de longues

tenues et il n'y a quasiment aucun moment où je peux reprendre ma

respiration. De plus, j'y ai placé des mots à la prononciation périlleuse

(notamment le mot « subctrated » qui m'a demandé beaucoup

d'entrainement avant que j'arrive à placer correctement chacune de ses

consonnes en rythme). L'exigence d'être juste sur toute la tenue des notes

est renforcée par l'aspect électronique de la composition. En efet, toute

l'instrumentation ayant une hauteur absolument exacte, la moindre

variation de hauteur de la voix est audible et sonne tout de suite très mal.

Lors de l'enregistrement, il a ainsi été très dificile de juger de la réussite des

prises de voix pour le refrain puisque toutes sonnaient, à un moment ou un

autre, faux. Yohan et Aloyse, présents lors de cet étape délicate, m'ont

encouragée en découpant mon texte pour que j'en fasse des prises séparées

et en me donnant des indications sur l'intention vocale. En efet, j'ai réalisé

que l'intention dans la chant se perd beaucoup une fois enregistrée, c'est un

phénomène que j'avais déjà pu observer en enregistrant des chanteurs et

chanteuses qui sont pris de stupeur en écoutant leur première prise,

néanmoins il n'en reste pas moins décourageant.

80

Page 82: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Heureusement, mes compétences en montage de voix et en

manipulation du logiciel Melodyne (qui sert à réajuster la hauteur de prises

de son) m'ont redonnée confiance en ma prestation une fois que tout fut

traité. De cette expérience d'enregistrement de “l'autre côté de la vitre”, je

retiens une extrême complexité dans le contrôle de la voix, surtout que les

défauts ont tendance à être accentués à cause de l'enregistrement. Malgré

plusieurs années de chant dans des choeurs, je n'avais jamais autant

questionné ma pratique vocale. Si c'était à refaire, je pense que je travaillerai

plus en amont en cherchant à être très précise sur chaque intention et je

répéterai plus souvent avec un micro pour être plus à l'aise dans cette

configuration.

Une fois la voix enregistrée, j'exporte ma quatrième et dernière

maquette pour commencer mon travail sur Pro Tools et enfin ajouter des

efets sur la voix. Les plug-ins de la suite Izotope RX sont très gourmands en

mémoire vite et Pro Tools a rapidement tendance à arrêter la lecture ou

même à se fermer lorsque j'essaye d'enchainer certaines opérations trop

rapidement. C'est d'ailleurs pourquoi je n'ajoute ces efets qu'à postériori, il

aurait été très dificile pour un ordinateur de supporter un enregistrement et

un traitement en temps réel par Izotope RX. De plus, ces traitements

engendrent aussi une latence allant parfois jusqu'à une dizaine de millier

d'échantillons. Ce délai est compensé par le logiciel en lecture mais ne peut

pas l'être en enregistrement, il y aurait beaucoup trop de latence dans le son

pour chanter en même temps. En efet, sachant que j'enregistre en 44.1Khz,

10 000 échantillons à compenser correspondent à 227 millisecondes de

latence, ce qui revient quasiment à une croche de décalage pour mon

81

Page 83: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

morceau (la valeur exacte de la croche étant de 259ms à 116bpm).

Ainsi, j'utilise deux De-noise33 en “Output Noise Only” sur les deux

premiers couplets, aux réglages diférents et en sommant leur résultat. Le

premier apporte plus d'aigu, donne un efet un peu “vieille radio” en

agissant presque comme un passe bande, et ajoute donc de l'intelligibilité.

J'ai utilisé la fonction “Learn” sur le second, ce qui fait que le son est plus

équilibré mais beaucoup plus déformé, mélanger les deux permet alors

d'éviter l’incompréhension totale du texte. À cela, j'ai ajouté un De-click en

“Output Clicks Only” dont l'algorithme est celui de la détection multibande

de clics réguliers, il permet ainsi d'ajouter l'étrange “vibrato” qui apparaît

sporadiquement.

Sur le dernier mot du premier refrain (« Soon ») et la seconde partie du

deuxième refrain, j'ai ajouté à la voix naturelle un De-click en “Output Clicks

Only” à l'algorithme de base, qui détecte donc des clics irréguliers sur une

bande unique. La région supprimée autour du clic (clic widening) est plus

faible lors de sa seconde apparition, ce qui donne l'impression d'entendre

des clics de saturation sur ce passage, surtout qu'il arrive sur l'un des

moments les plus intenses du morceau. Cet efet me fait beaucoup penser à

la saturation numérique omniprésente dans le morceau Crown on the

Ground des Sleigh Bells, présent dans la bande son du film The Bling Ring de

Sofia Coppola. Ce duo se revendique du mouvement dance-punk, alliage

antithétique entre l'idée de créer des musiques dansantes pour le grand

public et l'énergie primaire et provocatrice du mouvement punk. Cet usage

séditieux de la saturation fait controverse parmi les fans du groupe mais je le33 Captures d'écran des réglages des modules Izotope RX en Annexe 6

82

Page 84: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

trouve personnellement très eficace malgré la transgression immense qu'il

représente pour un ingénieur du son.

Pour le troisième et dernier couplet, j'ai utilisé un De-clip aux réglages

modérés pour que la voix soit encore bien compréhensible, puis j'ai poussé

son réglage au maximum sur le dernier refrain en le plaçant en parallèle de

la voix non traitée. J'aime beaucoup l'aspect monstrueux qu'il donne à la

voix alors qu'il est placé sur le passage le plus calme du morceau, du moins

pour la voix. Il me semble que la contradiction apparente entre ma voix

presque chuchotée et l'inhumanité rendu par l'efet renforce l'impression

d'inquiétante étrangeté sur ce passage.

Les refrains ne sont pas traités avec des modules de la suite Izotope RX

car je voulais jouer sur le contraste entre voix claire et voix traitée et éviter de

trop alourdir le morceau avec mes efets très denses. J'utilise néanmoins

dessus des techniques de production actuelle qui colorent fortement la voix.

J'ai superposé à chaque fois trois prises vocale, la principale au centre et les

deux autres à volume plus bas pour créer un efet stéréo. Cela produit un

léger efet de phase naturel et lisse le timbre de la voix. J'ai ensuite mis une

saturation légère sur la voix centrale non pas en tant qu'efet mais pour

modifier son équilibre fréquentiel. Ainsi, les aigus sont plus denses et plus

présents. Pour les parties traitées par les efets, j'ai fait en sorte d'éviter le

statisme en faisant varier leur intensité à plusieurs reprises, ce qui permet

aussi de conserver l'attention de l'auditeur et de rendre l'écoute plus

ludique.

83

Page 85: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

d – Le mixage

Pour la voix, comme dit précédemment, je me suis inspirée du mixage

de la voix du morceau Paradise Circus pour certains passages non traités,

comme le début du dernier refrain et la toute fin du morceau. Ainsi, la voix

n'est pas du tout réverbérée, j'ai retiré beaucoup de bas medium et j'ai

ajouté des mediums et des aigus à partir de 700Hz. Pour lui donner la

couleur la plus naturelle possible, je ne l'ai pas compressée non plus. Le

reste de la voix a subi beaucoup de traitements, tant les refrains pour coller à

la coloration de la musique actuelle que les couplets dont il fallait calmer

certaines bandes fréquentielles très proéminentes. Par exemple, j'ai dû

retirer quasiment dix décibels autour de 7KHz sur les extraits passés au De-

clip et ajouter quelques filtres notchs sur des fréquences très aiguës

(notamment 10kHz et 16KHz) sans quoi la texture aurait été inutilisable. De

même, les éléments passés dans les modules De-Noise sont beaucoup

retravaillés fréquentiellement. De plus, j'ai compressé très fortement les

sorties des plug-ins De-Click car les clics obtenus sont de niveau très variable

et ne ressortaient pas du tout lorsqu'on additionnait ce son à un autre.

Pour le reste du mixage, j'ai utilisé des techniques de compression en

side-chain34 de la grosse caisse sur la basse, puis de la basse sur le

synthétiseur à la ligne la plus grave. Je compresse aussi en parallèle35 la

grosse caisse, la caisse claire et la basse pour faire ressortir leur texture et

34 La compression en side-chain consiste à compresser un instrument lorsque c'est un autre instrument qui dépasse le seuil fixé. Cela permet par exemple ici de faire ressortir la grosse caisse puisque le niveau de la basse diminue au moment où le coup est joué, celle-ci dépassant le seuil du compresseur de la basse.

35 La compression en parallèle consiste à ajouter le signal compressé au signal non traité.

84

Page 86: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

éviter d'abîmer leur attaque. Je reviens à ce moment sur l'arrangement en

ajoutant une émulation de mellotron jouant des cuivres et des cordes qui

traverse le morceau pour ajouter de la matière. D'ailleurs, j'utilise aussi le

De-noise d'Izotope RX dessus et gère ainsi avec le niveau d'entrée la

désagrégation de ce matériau. J'ajoute aussi une ligne de cordes simulée

grâce au logiciel Kontakt sur la fin des refrains car je pensais faire chanter

cette mélodie à des choeurs mais l'enregistrement de la voix s'étant étiré en

longueur, nous n'avons pas pris le temps de le faire. De plus, dès le début de

la composition, j'avais très envie d'ajouter un son de cordes mais je ne

possédais pas encore ce logiciel. La possibilité de compléter l'arrangement

au fil du mixage est pour le coup un luxe permit par le fait que j'y procède

moi-même, c'est d'ailleurs l'un des seuls avantages que je vois à accomplir

seule toutes les étapes de la création.

Par la suite, J'ai enlevé beaucoup de bas medium sur les instruments

pour en ajouter ensuite par les réverbérations. Ainsi, le mix final est bien

analytique sur les couplets, mais les éléments ont tendance à se mélanger

un peu plus sur les refrains, les rendant plus compacts. Pour le mastering,

j'ai surtout pris soin d'amener mon morceau à un niveau moyen équivalent à

celui des productions actuelles grâce à un limiteur, soit environ -7dBFS. Je

n'ai pas retouché à l'équilibre spectral global car il me paraissait plutôt

cohérent et manquant plus que jamais de recul à cette étape, j'ai préféré ne

pas risquer d'endommager mon mix par un mauvais mastering.

85

Page 87: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

En fin de compte, la production de ce morceau a alterné entre des

phases d'heureux hasard qui ont permis un déroulement rapide de certaines

étapes, notamment la composition de la première maquette, le choix de la

mélodie vocale et le premier placement des traitements sur la voix, et des

moments de recherche d'éléments précis, plus dificile à mettre en œuvre et

propices au doute. En efet, n'ayant jamais expérimenté la composition

avant celà, j'ai rencontré beaucoup de dificultés pour trouver certains

instruments puisque je ne connaissais pas encore bien les banques de son

que j'employais. De plus, j'ai eu du mal à m'autoriser certaines

expérimentations de peur que le morceau n'en devienne trop ardu, ne

réalisant pas que mon intuition quant à l'eficacité du morceau allait de

toute façon toujours me ramener vers des procédés conventionnels.

Heureusement, il me semble que ce morceau conserve une certaine

originalité dans le mélange des influences à la fois trap et trip-hop et dans

l'utilisation d'un nouvel efet. Aussi, il me sera indiqué par des auditeurs que

la composition et l'interprétation vocale, outre leur arrangement et leur

mixage qui en font un morceau de musique électronique, contient une

énergie très rock, voire relevant du métal, ce qui n'est pas étonnant car ce

sont des genres musicaux que j'ai écouté durant de longues années.

86

Page 88: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

III. CRITIQUES ET RÉFLEXIONS

AUTOUR DU RÉSULTAT

87

Page 89: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

1) LA MISE EN PLACE DU QUESTIONNAIRE

Ma partie pratique de mémoire est actuellement disponible en ligne

sur le site Soundcloud à l'adresse : https://soundcloud.com/sbsilber/brained.

Le morceau compte à ce jour 175 écoutes et 40 personnes ont répondu à

mon questionnaire. Ce dernier, disponible en Annexe 7, est composé de

douze questions et vise à évaluer à quel point mon morceau a été apprécié

mais aussi ce que le public a ressenti à l'écoute de celui-ci et ce qu'il a pensé

de l'utilisation de l'efet. Je demande ainsi aux individus de noter le morceau

sur dix tout en ayant au préalable requis leur âge, leur fréquence d'écoute de

musique électronique et leur profession (dans ce cas, musicien, ingénieur du

son ou aucun des deux) pour vérifier si ces paramètres ont une quelconque

influence sur la notation. Ensuite, je cherche à savoir quelles émotions ont

été ressenties à l'écoute du morceau et à quoi cela était dû dans deux

fenêtres de verbalisation libre. Je pense pouvoir regrouper les émotions

décrites dans des catégories (par exemple, une catégorie comprendra tous

les mots qui se trouvent dans le champ lexical de la tristesse : nostalgie,

mélancolie...) et observer leurs relations avec les paramètres du morceau

(tempo, mélodie, harmonie...) pour en extraire des corrélations. J'espère

pouvoir y déceler l'idée d'inquiétante étrangeté que provoque l'efet et

vérifier que les émotions que j'ai souhaité transmettre par ce morceau ont

bien été reçues. Je demande aussi ce que l'efet, d'après chacun, ajoute et

retire à la voix, ce qui me permettra d'évaluer leur interprétation de ces

efets mais aussi leur appréciation puisque ce sont des fenêtre de

verbalisation libre. Je pourrais donc voir si l'efet apporte bien du sens par

88

Page 90: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

l'altération du grain de la voix. Enfin je rajoute deux questions dont la

réponse n'est pas obligatoire dans lesquelles je propose aux auditeurs et

auditrices de me dire si ce morceau leur a fait penser à un autre artiste et les

laisse s'exprimer dans la dernière fenêtre sur la création. Ayant composé de

manière intuitive et sans beaucoup de recul, il m'intéresse de savoir si je me

suis rapprochée malgré moi d'autres compositeurs et si mes références

initiales sont toujours apparentes, notamment Massive Attack, Kavinsky et

Gesaflestein.

89

Page 91: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

2) RETOURS DU PUBLIC SUR LA CRÉATION

a – Retours généraux

Sur ces quarante retours, l'appréciation qui m'a été attribuée est de

7,2/10. La note la plus faible est de 3, la plus haute est de 10. La médiane est

à 7 et l'écart-type vaut 1,5, ce qui est très modéré, c'est-à-dire que les notes

se sont plutôt concentrées autour de la moyenne. En considérant que le

morceau est bien apprécié à partir de la note de 7/10, 5 ou 6/10 pouvant

signifier un avis mitigé et en dessous de cette note que les auditeurs et

auditrices n'ont pas aimé, je peux afirmer que 80% ont aimé ce morceau, et

10% ne l'ont pas du tout apprécié (quatre personnes ayant donné des notes

entre 3 et 4/10).

Figure 3 : Réponses données à la question « Que pensez-vous dece morceau ?» sous la forme d'un diagramme empilé.

90Note

0

5

10

15

20

25

30

35

40

10 9 8 7 6

5 4 3 2 1

Page 92: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

L'âge des individus, le fait qu'ils soient ingénieur du son ou musicien et

leur fréquence d'écoute de musique électronique n'ont pas d'influence

significative sur la notation. Cela suggère que le morceau que j'ai composé

ne s'est pas trop approché de la création expérimentale, ce qui satisfait mon

idée de départ selon laquelle il est possible d'introduire de nouveaux efets

sur la voix dans la production musicale grand public.

b – Les émotions ressenties

Pour étudier les émotions ressenties à l'écoute de ce titre, je les ai

classées, lorsque c'était possible, selon cinq catégories. Feront partis du

champ lexical de la tristesse les mots mélancolie, nostalgie, idées noires et

pessimisme. Pour celui de la peur, ce seront inquiétude, stress, oppression,

insécurité, incertitude existentielle, détresse, mais aussi étoufement et

claustrophobie, et enfin la locution inquiétante étrangeté qui a été citée une

fois telle quel. On retrouve aussi le champ lexical de l’apaisement par des

notions comme la paisibilité, la zénitude, le calme et la sérénité, celui de la

colère par les mots déchirement, violence et rage. Enfin, les mots qui

suggèrent l'idée d'énergie sont uniquement lui-même et puissance. Selon

cette classification, 70% des personnes ont évoqué un sentiment de

tristesse, 35% ont décrit des émotions liées à la peur, 15% ont parlé

d’apaisement, 15% d'énergie et 12,5% ont évoqué la colère. Ces

pourcentages sont néanmoins à prendre avec précautions puisqu'ils

découlent de mon interprétation des réponses des individus. Les mots ayant

été le plus cités par ordre décroissant sont ceux de mélancolie, tristesse,

91

Page 93: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

nostalgie puis inquiétude.

Les éléments les plus souvent cités pour justifier les émotions

ressenties par ordre décroissant sont le traitement de la voix, l'arrangement

(le choix des instruments, des textures), l'harmonie du morceau, la mélodie,

les diférentes rythmiques, l'évolution de l'intensité puis le tempo. Il semble

donc que les efet appliqués à la voix ait bien attiré l'oreille des auditeurs et

auditrices, mais les sensations engendrés par le morceau sont le résultats de

la composition entière. Les paroles n'ont servi qu'une seule fois de

justification. Je pense que les efets et la langue choisie ont rendu compliqué

leur compréhension, mais ce n'est pas un mal puisque j'ai volontairement

choisi d'appliquer des efets intenses quitte à dégrader l'intelligibilité.

D'après les résultats, il semble aussi que ce soit majoritairement le

traitement de la voix qui ait engendré le sentiment d'inquiétude, ce qui

pourrait suggérer que l'idée d'inquiétante étrangeté portée par l'efet a été

perçue par le public. Néanmoins, il est dificile de confirmer cette théorie car

l'interprétation de cesréponses reste très délicate.

c – La compréhension et l'appréciation de l'effet

Pour ce qui est de l'efet, un quart des individus ont souligné que

l'efet ajoutait de l'émotion, notamment de la soufrance et de la détresse et

renforçait le ton du discours. Il est dit qu'il apporte du sens au texte et qu'il

donne l'impression que la chanteuse a plusieurs émotions en même temps.

Ainsi, ces résultats vont dans le sens de mon hypothèse selon laquelle ces

92

Page 94: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

efets agissent sur le grain de la voix et interfèrent avec le texte. Bien qu'un

quart des participants dise aussi que l'efet altère l'intelligibilité du texte, il

est intéressant de constater que même dans le cas où tout le texte n'est pas

compris, l'efet reste vecteur de sens. Par exemple, l'une des interprétations

donnée à cet efet est celle « d'un androïde qui découvre des sentiments, et

qui ne sait pas comment réagir, ou alors un humain qui voit ses propres

sentiments de cette manière et qui a du mal à les comprendre. »36 Cette

réception du sens du morceau est finalement très proche de ce que j'ai tenté

de raconter, bien que cette personne ajoute ensuite qu'elle a eu beaucoup

de mal à comprendre le texte, comme quoi l'efet a finalement largement

participé à la transmission du message.

L'efet a aussi été perçu comme ajoutant de l'originalité et étant le

signe d'une personnalité d'artiste. Sinon, la plupart y ont vu un apport

esthétique, soit en jouant sur la dualité humain-machine, soit en la

considérant d'emblée comme une texture instrumentale qu'il est possible de

dégrader et trafiquer. Certains ont mis en évidence que l'efet masquait le

timbre de la voix mais tous n'ont pas trouvé cela gênant. Il y a néanmoins six

personnes qui n'ont pas du tout aimé l'efet, certains d'entre eux pensant

qu'il amène de la confusion.

36 Réponse n°39 à la question « À votre avis, qu'apporte l'ajout de l'efet sur la voix à ce morceau ?»

93

Page 95: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

d – La reconnaissance des influences

Ce morceau a rappelé très souvent aux auditeurs et auditrices le travail

de la chanteuse Björk. Efectivement, cette musicienne a beaucoup

expérimenté autour de la place de la voix dans la musique électronique et

trip-hop, je n'ai pas eu l'impression de m'en inspirer pendant la période de

création mais avec le recul je me rend compte que j'ai beaucoup emprunté à

sa démarche. Portishead et sa chanteuse Beth Gibbons ont aussi été cités

trois fois, ce qui n'est pas étonnant car ils ont beaucoup été influencés par

Massive Attack, l'une de mes références, Geof Barrow ayant été assistant

lors de l'enregistrement de leur album Blue Lines avant de fonder

Portishead. Ces deux chanteuses ont efectivement profité de beaucoup de

liberté dans leur interprétation du chant car le trip-hop permet souvent de

faire la part belle à l'expression vocale. Au dessus des instrumentations

parfois lourdes, sombres ou violentes, la voix traduit une forme de

vulnérabilité, de délicatesse, malgré l'atmosphère plombante qui règne

autour. Cette tendance dans l'utilisation de la voix apparaît dès l’émergence

du genre et Beth Gibbons s'en empare dès ses débuts.

En outre, deux personnes ont aussi rapproché ce morceau des

compositions du groupe de heavy metal Evanescence pour la mélancolie

qu'il exprime. Je pense en efet que le développement mélodique de la voix,

dont les sonorités mineures sont très appuyées sur les secondes parties des

refrains, peut être comparé à ce qu'on trouve généralement dans la musique

métal. De plus, le De-clip utilisé à la fin qui donne l'impression que je chante

de manière gutturale fait directement référence à ce type de musique.

94

Page 96: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Le morceau Nightcall de Kavinsky a été nommé deux fois, ainsi c'est

l'une de mes références directes qui a été reconnu ici. Je pense que ce qui a

permis de le reconnaître est l'alternance entre les passages traités avec efet

et les refrains en voie claire qui sont mixés à l'aide des techniques actuelles.

Gesafeltstein n'a été cité qu'une fois et personne n'a parlé de Goldfrapp

dont je me suis beaucoup inspiré pour la voix ni de musicien de trap, bien

que le morceau emprunte à cette esthétique. Pour Alison Goldfrapp, ce n'est

pas étonnant car cette chanteuse est peu connue du grand public.

Ainsi, je suis satisfaite de cette création car elle a été plutôt bien reçue

par le public, d'autant plus qu'il n'y a pas eu de distinction d'appréciation en

fonction de l'âge, de la profession ou des habitudes d'écoute. Ainsi, mon pari

consistant à intégrer un nouvel efet dans un morceau de musique grand

public est réussi. Racontant dans ce morceau ma dificulté à quitter l'anxiété

et ma peur du lâcher prise, bien que je ne puisse pas y échapper, je tentais

d'y exprimer mon angoisse, ma détresse face à l'inéluctabilité de la situation

tout en l'interprétant avec une certaine forme d'apathie sur les couplets. La

majorité des gens ont senti l'idée de tristesse et d'inquiétude mais aussi de

l'apaisement, de la colère et de l'énergie, je pense donc que la multiplicité

des émotions que j'essayais de traduire a été plutôt bien comprise. Aussi,

beaucoup d'individus ont senti que l'efet apportait un sens supplémentaire

à la narration, voire supputait celui du texte lorsque ce dernier n'était pas

compris, ce qui confirme mon hypothèse selon laquelle l'efet, en devenant

une des composantes du grain de la voix, renforce la signification.

95

Page 97: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

CONCLUSIONLe détournement en musique est une démarche courante et est

pratiqué à la fois par les ingénieurs et ingénieures du son, mais aussi par les

musiciens et musiciennes, que ce soit dans le domaine de la recherche

savante ou de la pratique populaire. Il est un vecteur de création, ouvrant

parfois la porte à de nouveaux genres musicaux et participe au

développement des innovations techniques. C'est ainsi grâce au mésusage

d'outils très divers que sont nés par exemple la musique concrète, le glitch,

mais aussi le vocodeur, l'autotune et les techniques de prise de son et de

mixage actuelles. Le traitement de la voix n'est donc pas en reste et dans

l'idée de détourner moi-même un traitement pour en faire un efet, c'est-à-

dire une transformation évidente du son, je me suis intéressée aux méthodes

d'étude de la voix traitée. La sensation particulière procurée par les efets sur

la voix qui m'a intéressée est celle de l'inquiétante étrangeté. Elle semble

apparaître lorsqu'un efet, en dégradant la voix, transforme la

représentation que nous nous faisons de l'interprète. En s'appuyant sur la

définition du grain de la voix de Roland Barthes selon laquelle il est le

résultat de la friction entre le timbre chanté et la langue elle-même, l'efet

altérant le timbre et l'élocution deviendrait l'une de ses composantes.

Détourner un traitement sonore pour l'appliquer à la voix, c'était donc

chercher à faire parler les textures, comprendre ce qu'elles évoquaient en

moi pour leur faire porter un sens, une émotion, au sein d'un morceau de

musique. Ce travail a donc consisté en une expérimentation ludique des

modules Izotope RX et plus particulièrement des résidus de bruits qu'ils

96

Page 98: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

retirent aux sources. Ainsi, j'ai tenté de trouver une utilisation originale à ces

rebuts sonores.

En composant une pièce de musique électronique à cet efet alors que

je suis une néophyte en la matière, je me suis heurtée à plusieurs obstacles.

Il a fallut apprendre à maitriser, ne serait-ce qu'au minimum, les nouveaux

outils à ma disposition et réinventer le fonctionnement des traitements

Izotope RX. Ainsi, les diférents curseurs à ma disposition sur ces modules

ont fini par avoir un impact bien diférent par rapport à leur intitulé sur le

son tandis que j'essayais d'en extraire toutes les déformations possibles.

Pour la composition, la plus grande dificulté fut de travailler sans recul ni

vision de ce que serait le résultat. J'ai eu l'impression d'avancer à l'aveugle,

alternant entre des phases d'heureux hasard où tout évoluait très vite et des

moments de doutes où la mise en place de certains éléments pourtant bien

définis se révélait très ardue.

Ce qui m'a le plus frappée pendant cette production est la nécessité

inhérente à la musique qui s'adresse à l'afect du public à devoir

constamment chercher du recul en la composant. Il faut s'assurer à chaque

étape de la création que le morceau touchera les auditeurs et auditrices à la

première écoute alors qu'on l'a entendu des centaines de fois pendant ce

processus. C'était d'autant plus dificile au moment d'ajouter les efets

puisque n'ayant jamais entendu de morceau utilisant ces mêmes

traitements, je ne pouvais pas m'inspirer directement de références, ce qui

est en général un moyen eficace de faire fonctionner un efet ou autre choix

esthétique. C'est toutefois un procédé auquel j'ai eu recours pour tous les

autres aspects de la composition, parfois en ne réalisant que je m'étais

97

Page 99: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

inspirée d'un morceau préexistant qu'après coup. Ce biais de création est

sans doute partagé par d'autres musiciens et musiciennes. N'est-on pas plus

souvent qu'on ne le croit dans l’imitation malgré notre recherche de

l'originalité ?

Finalement, mon morceau a été bien reçue par le public, 80% des

participants et participantes à mon questionnaire lui ayant attribué une note

de 7/10 ou plus. La multiplicité des émotions que je tentais d'y exprimer

semble avoir été comprise ou du moins bien perçue. Les individus ont dit

avoir ressenti à son écoute des sentiments proches de la tristesse, de

l'inquiétude, de la colère, de l'énergie et de l'apaisement, certains associant

parfois plusieurs notions contradictoires dans leurs réponses, alors même

que beaucoup ont avoué ne pas avoir bien entendu les paroles. Ainsi, les

efets appliqués à la voix ont l'air d'avoir rempli le rôle que je leur incombais

car c'est la justification qui a été la plus employée pour décrire les émotions

ressenties. Ils ont donc soutenu l'interprétation du texte. Néanmoins, c'est

aussi la teneur de la composition qui y a participé.

Cependant, ces résultats demandent tout de même à être nuancés, six

personnes sur quarante ont tout de même reconnu qu'ils n'aimaient pas ces

efets sur la voix et beaucoup ont trouvé qu'ils masquaient trop son timbre.

C'était un de mes partis pris dès le début de la composition mais il ne fait

efectivement pas l’unanimité. Ainsi, l'appréciation de l'efet semble tout de

même être liée aux gouts personnels, mes pairs qui ne l'ont pas aimé ayant

quand même admis qu'ils n'avaient jamais entendu un efet comme celui-ci

et qu'il était intéressant en cela.

98

Page 100: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

En définitive, la suite Izotope RX et sûrement de nombreux autres

traitements sonores encore inexplorés permettent la création de nouvelles

textures surprenantes lorsqu'on les détourne de leurs fonctions et sont

susceptibles d'enrichir la création musicale. Hélas, les modules que j'ai

employé à cet efet demandent beaucoup de calcul et nécessitent parfois

d'exporter directement les fichiers qu'on souhaite traiter pour éviter de

saturer la mémoire vive de l'ordinateur. Il semble donc très compliqué de les

mettre en application dès l'enregistrement ou pour des concerts. Peut-être

est il possible dans ce cas d'imiter leur rendu par d'autres efets plus

simples. Ainsi, même si les usages de la suite Izotope RX que je propose sont

limités, j'espère au moins par ce mémoire avoir ouvert la porte à

l'imagination.

99

Page 101: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

BIBLIOGRAPHIECollectif, Modulations : Une histoire de la musique électronique (Modulations, A History of Electronic Music : Throbbing Words on Sounds, 2000), trad. Pauline Bruchet & Benjamin Fau, Paris, Éditions Allia, 2004.

NEUMARK, Norie, GIBSON, Ross, et VAN LEEUWEN, Theo (sous la dir. de), Voice : vocal aesthetics in digital arts and media, Cambridge, Massachusetts Institute of Technology, 2010.

EMERICK, Geoff, et MASSEY, Howard, En studio avec les Beatles (Here, There and Everywhere: My Life Recording the Music of the Beatles, 2006) trad. Philippe Paringaux, préface de Elvis Costello, Gémenos, Le mot et le reste, 2009.

LANE, Cathy, « Voices from the Past: Compositional approaches to using recorded speech », In Organised Sounds, International Journal of Music Technology, vol. 11, n°1, avril 2006, p.3-11.

MORI, Mashiro, « The uncanny valley » (la vallée de l'étrange), trad. K. F. MacDorman & T. Minatc, Energy vol .7, n°4, 1970, p.33-35.

COUPRIE, Pierre, La voix dans la musique électroacoustique : approches analytiques, Exposé présenté lors d'une journée d'étude à l'Université de Rennes, 2001

GRISEY, Gérard, note de programme. Concert du 3 juin 1985.

SCHAEFFER, Pierre, À la recherche d'une musique concrète, Paris, Éditions du Seuil, 1952.

CAGE, John, Pour les oiseaux, Entretiens avec Daniel Charles, Paris, Éditions de l'Herne, 2014

GOSSELIN, Sophie & OTTAVI, Julien, « L'électronique dans la musique, retour sur une histoire » , Volume !, vol.1, n°2, 2002, p.71-83.

GALLET, Bastien, « Techniques électroniques et art musical : son, geste, écriture », Volume !, vol.1, n°1, 2002, p.17-28.

CASCONE, Kim, « The Aesthetics of Failure : “Post-Digital” Tendencies in Contemporary Computer Music » (L'esthétique de la défaillance : Tendances “post-numériques” dans la musique assistée par ordinateur contemporaine), Computer Music Journal, vol. 24, n°4, Hiver 2000, p.12-18.

COHEN-LEVINAS, Danielle, La voix au delà du chant, Paris, Librairie philosophique J. Vrin, 2006.

100

Page 102: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

BOSSIS, Bruno, La voix et la machine, Rennes, Presse universitaire de Rennes, 2005.

FREUD, Sigmund, L'inquiétante étrangeté (Das Unheimliche), trad. Marie Bonaparte & Mme E. Marty, Paris, Gallimard, 1933.

BARTHES, Roland, « Le Grain de la voix », Musique en Jeu, n°9, novembre 1972.

BODE, Harald, « History of Electronic Sound Modification», Journal of the Audio Engineering Society, vol. 32, n°10, octobre 1984.

MANNING, Peter, Electronic and Computer Music, New York, Oxford University Press, 2004.

KELLY, Caleb, Craked Media : The Sound of Malfunction, Cambridge, MIT Press, 2009.

CLAIR, Simon, « Le jour où un sismologue a inventé l'autotune », Greenroom, 6 avril 2016,URL : http://www.greenroom.fr/97340-le-jour-ou-un-sismologue-a-invente-lauto-tune/

BELKHADRA, Themis, « OKLou : La misogynie dans la musique ? Les vestiges d'une culture qui a fait son temps. » TRAX magazine, 14 septembre 2016,URL : http://fr.traxmag.com/interview/36523-oklou-la-misogynie-dans-la-musique-les-vestiges-d-une-culture-qui-a-fait-son-temps

101

Page 103: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

DISCOGRAPHIEJohn Cage, Imaginary Landscape No. 1, Peters, 1939, env. 9mn.

John Cage, Imaginary Landscape No. 3, Peters, 1942, env. 3mn.

Pierre Schaeffer, Étude aux Chemins de fer (Cinq études de bruit), 1948, 2mn50.

The Beatles, Paperback Writer (single), Parlophone, 1966, 2mn23.

The Beatles, Tommorow Never Knows (Revolver), Parlophone, 1966, 2mn59.

The Beatles, I Am The Walrus (single Hello/Goodbye, face B), Parlophone, 1967, 4mn37.

The Beatles, Lucy In The Sky With Diamonds (Sgt. Pepper Lonely Hearts Club Band),Parlophone, 1967, 3mn27.

Grandmaster Flash, The Adventures of Grandmaster Flash on the Wheels of Steel , SugarHill Records, 1981, 7mn01.

Nicolas Collins, Broken Light I, Corelli (It Was a Dark and Stormy Night), Trace Elements Records, 1992, 4mn58.

Artistes divers (compilation), Cliks_+_Cuts, Mille Plateaux, 2000, 130mn49.

Alvin Lucier, I am Sitting in a Room, 1969, env. 40mn.

Steve Reich, Come Out, 1966, 13mn.

Kavinsky feat. Lovefoxxx, Nightcall (Roadgame), Record Makers, 2010, 4mn19.

Daft Punk, Random Access Memories, Daf Life Ltd. & Columbia, 2012, 74mn24.

Gérard Grisey, Les chants de l'Amour, 1984, Rocordi, env. 45mn.

Claude Debussy, Pelléas et Mélisandre, 1902, env. 3h.

OKLou, The Rite of May, NUXXE, 2018, env. 20mn.

OKLou, Animal Crossing (Live pour les Amours Alternatives), 2015, 6mn46.

Laurie Anderson, Ô Superman (single), autoprod., 1982, 8mn21.

Daft Punk, Harder, Better, Faster, Stronger (Discovery), Virgin Records, 2001, 3mn46.

Goldfrapp, Deer Stop (Felt Mountain), Mute Records, 2000, 4mn06.

Gesafflestein, Aleph, Parlophone, 2013, 57mn33.

102

Page 104: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Archive, You Make Me Feel (Take My Head), Independiente, 1999, env. 43mn.

Carpenter Brut, Trilogy (compilation des EP I, II et III), No Quarter Prod, 2015, 81mn19.

Massive Attack feat. Hope Sandoval, Paradise Circus (Heligoland), autoprod., 2010, 4mn57.

Sleigh Bells, Crown on the Ground (Treats), N.E.E.T. Records, 2010, 3mn49.

Evanescence, Bring Me To Life (Fallen), Wind-Up Records, 2003, 3mn57.

Portishead (Beth Gibbons), Portishead, Go ! Discs, 1997, env. 42mn.

Björk, Medúlla, One Little Indian, 2004, 45mn40.

TABLE DES ILLUSTRATIONSFigure 1 : Représentation schématique de la vallée de l'étrange d'après Mashiro Mori.....p.33

Figure 2: schéma synoptique d'un vocodeur..........................................................................p.43

Figure 3 : Réponses données à la question « Que pensez-vous de ce morceau ?» sous la forme d'un diagramme empilé...............................................................................................p.90

103

Page 105: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ANNEXE 1 : Grille d'analyse de Pierre Couprie concernant la voix dans la musique

électroacoustique

Extrait du chapitre II ,« Les quatre angles d'analyse », du compte-rendu de l'exposé présenté lors d’uneJournée d’étude a l’Université de Rennes le 31/10/2001, La voix dans la musique electroacoustique :

approches analytiques.

104

II.1.2. Le texte [...]Sept criteres permettent d’evaluer le texte :1) Texte : ce critere est fonde sur la comprehension du texte en evaluant le type de brassage qu’a opere l’artiste ; 2) Rythme : permet d’evaluer les interruptions du flux textuel ; 3) Vitesse : evalue les changements de vitesse de lecture ; 4) Variation de hauteur : donne une estimation d’une transformation de la hauteur ; 5) Cadence : evalue la courbe d’intonation avant un silence ; 6) Silence et cesure : evalue des silences importants en duree ; 7) Alliteration : estime le lien avec le reste du materiau sonore.

II.1.3. La morphologie L’analyse morphologique permet d’etudier les composantes internes des sons. Ces differents criteres nous renseignent particulierement sur l’ensemble des modifications que le compositeur a fait subir au materiau sonore. L’evaluation se fait, comme dans le cas de l’analyse poetique presentee precedemment, par une estimation de la distance entre le son entendu et le son qui a servi de point de depart. [...]Elle regroupe 8 criteres : 1) Hauteur : evalue la transposition de la voix ; 2) Spectre : permet de noter les transformations de type polyphonique par exemple ; 3) Intensite generale : intensite generale de l’echantillon sonore analyse ; 4) Couleur : estimation de la couleur du son ; 5) Texture : evaluation du grain de la voix ; 6) Panoramique : position et/ou mouvement du son ; 7) Espace : position dans un espace a 3 plans ; 8) Effet : importance de la transformation du son.

II.1.4. La reference [...]Les criteres referentiels sont donc au nombre de deux : 1) Identification : homme, voix melangees, femme, enfant, voix indeterminee ;2) Émotion : un ensemble de qualificatifs (serenite, calme, meditatif, intimiste, triste, melancolique, plaintif, inquietant, oppressant, angoissant, effrayant, pesant, obsedant, stressant, pressant, sautillant, entrainant, joie, fraicheur, humour, rayonnant, passion, tendresse, douceur).

II.1.5. Les transformations [...]Les effets peuvent etre classes en cinq categories : 1) Les effets jouant sur la prolongation du son : les delais et reverberations ; 2) Les effets jouant sur des transformations internes du spectre du son : les filtres, etc. ;3) Les effets modifiant la place du spectre dans la gamme generale des frequences : la transposition, les effets polyphoniques, etc. ; 4) Les effets modifiant l’enveloppe dynamique du son : gate, generateur d’enveloppe, etc. ; 5) Les effets ajoutant au son un element qui semble exterieur : modification du grain, modulateurs, etc.

Page 106: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ANNEXE 2.1 : Grille d'analyse de Cathryn Lane a propos des types de transformation

vocaleExtrait de l'article « Voices from the Past: Compositional approaches to using recorded speech ». In

Organised Sounds, International Journal of Music Technology, vol. 11, n°1, avril 2006.

105

1 - Dissolution of semantic meaning through processing : The semantic meaning of a word or phrase is dissolved through a processing effect such as layering, overwhelming reverberation, reversed echo, spectral processing, etc., e.g. Steve Reich Come Out.

2 - Dissolution of semantic meaning through deconstruction Words are split into their component syllables or smaller units and are used acousmatically, e.g. Lettrist sound poet Isidore Isou’s reduction of words into particles ; ultra-lettrist François Dufrene’s crirhythms, and sections of Hidden Lives (1999) by Cathy Lane.

3 - Dissolution of semantic meaning through sonic translation or equivalence: Meaning of words or phrases are translated or transferred into a sound equivalent where the semantic meaning is not quite so apparent and which requires a different kind of understanding, e.g. Trevor Wishart Red Bird. 4 - Accumulation of meaning by sonic association: semantic meaning of words is reinforced by the additional use of other sounds relating to the text, e.g. text about the sea is complemented with ‘flowing’ or ‘undulating’ sounds.

5 - Accumulation of meaning through performance: Human expression is the focus of the work and the dramatic narrative according to the emotive aspects of the vocal usage, e.g. L. Berio Visage, many works by sound poets.

6 - Accumulation of meaning by semantic extension or elaboration: This is often achieved through processing e.g. Wisharts’s Two Women and American Triptych.

7 - Accumulation of meaning by structural association: Meaning is reinforced by the way that the text is manipulated and structurated, e.g. compositional techniques used in madrigals, Monteverdi, Ligeti, Crumb, etc.

8 - Accumulation of meaning by massing of voices or montage: Meaning is reinforced by the way that different voices come in saying either the same word or different things which built up and reinforce a total picture. This is an extremely common device, e.g. Glenn Gould’s The Idea of North.

9 - Retention of meaning: Words are presented as recorded with no apparent processing.

10 - Melodic or rhythmic extraction, translation and elaboration: The melodies or rhythms of the spoken word are extracted and taken up by other elements in the work, again this may reinforce meaning but it also may be a purely abstract device, e.g. Steve Reich’s Different Trains.

11 – Narrative content or context: A piece of music that is built around a pre-existing (ofen well-known) text, for exemple electroacoustic transformation of poetry of prose, e.g. Berio’s Thema-Omaggio a Joyce (1958), Paul Lansky’s Six Fantasies on a Poem by Thomas Campion, or even about an event, e.g. The Sinking of the Titanic by Gavin Briars.

12 - Narrative guidance: Text spoken by a lead or authoritative voice which guides the listener through the work, e.g. Hildegard Westerkamp, Kits Beach Soundwalk (1989) or Janet Cardiff The Missing Voice.

13 - Narrative suggestion: Vocal events are not foregrounded but used to indicate human presence or human activity e.g. Katharine Norman People Underground (1996).

14 - Phonetic excitation: The voice is used to articulate some other sources of resonance, e.g.architectural space as in Alvin Lucier’s I Am Sitting in a Room (1970) or synthesizer such as a vocoder.

15 - Semantic juxtaposition and permutation: Apollinaire’s Les Mamelles or the ordering and re-ordering of words in pieces such as Junk is no good baby and Brion Gysin, William S. Burroughs’ cut-ups, Cage’s use of mesostics in works as Roratorio (1979), Song Books (1970) and 63 Mesostics Re Merce Cunningham (1971). This can be asimilated to granular shynthesis.

16 - Nonsense juxtaposition and permutation including the inventing of words: A whole new language is not invented but new words are dropped into existing language. Lewis Carroll’s Jabberwocky in Through the Looking Glass. Christian Morgenstern semantically opaque Kinkajou ‘kroklolwafzi’ (around 1890) and Paul Scheerbart’s poem ‘kikakoku!’ (1897) In 1967 Henri Chopin composed Frogs of Aristophanes.

17 - New languages or metalanguages : Languages are made up out of plausibly sounding phonemes from existing languages, e.g. Kruchenkykh’s Zaum poetry, McClure’s Beast language, Paul Lansky’s Idle Chatter series.

18 - Computer- generated and synthesised speech: For example, Charles Dodge’s extensive experiments with speech and vocal synthesis as in works such as Speech Songs (1972), or material with speech-like characteristics generated by the computer, e.g. Paul Lansky’s Idle Chatter.

19 - Composing text as part of the compositional process : For example, Paul Lensky’s Now and Then (1991) and Things She Carried (1995-1996).

Page 107: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ANNEXE 2.2 : Grille d'analyse de Cathryn Lane (Traduction)

106

1 - Dissolution de la semantique par le biais de la transformation : la semantique d'un mot ou d’une expression est dissoute par un effet de transformation comme la superposition, la reverberation ecrasante ou echo inverse, traitement spectral, etc. par cf. Steve Reich Come Out.

2 - Dissolution de la semantique par le biais de la deconstruction : les mots sont separes en syllabes ou en unites plus petites et sont utilises d’une maniere acousmatique, cf. le poete lettriste Isidore Isou dans la reduction des mots en particules, l’ultra-lettriste François Dufrene de crirhythms, et des sections de Hidden Lives (1999) de Cathy Lane.

3 - Dissolution de la semantique par le biais de la traduction sonore ou de l'equivalence : le sens des mots ou des phrases est traduit ou transfere dans un son semantique equivalent où le sens n'est pas tout a fait aussi evident, et qui necessite un autre type de comprehension, cf. Trevor Wishart Red Bird.

4 - Cumul des sens par son association : la signification semantique des mots est renforcee par le recours a d’autres sons relatifs au texte, par exemple, un texte sur la mer est complete par « ecoulement » ou « ondulation » de sons.

5 - Cumul de sens par le biais de la performance : l'expression humaine est au centre du travail et de la narration dramatique selon les aspects emotifs de la voix utilisee, cf. L. Berio Visage, de nombreuses œuvres de poetes sonores.

6 - Accumulation de sens par l'extension ou la mise au point semantique : c'est souvent grâce a la transformation, cf. Wisharts Two Women et American Triptych.

7 - Accumulation de sens par association structurale : le sens est renforce par la maniere dont le texte est manipule et structure, cf. techniques utilisees dans la composition des madrigaux. Monteverdi, Ligeti, Crumb, etc.

8 - Cumul de sens par l’accumulation des voix ou du montage : le sens est renforce par la maniere dont les differentes voix sont prononcees, soit le meme mot ou differentes voix qui construisent et renforcent un ensemble. C'est un dispositif tres commun, cf. Glenn Gould The Idea of North.

9 - Retention des sens : les mots sont presentes tels qu’ils ont ete enregistres, sans traitement apparent.

10 - Extraction melodique ou rythmique, translation et elaboration : les melodies et les rythmes de la parole sont extraits et appliques d’une façon differente dans d'autres elements tout au long de la piece, ce qui peut renforcer le sens, mais elle peut egalement etre un dispositif purement abstrait, cf. Steve Reich Different Trains.

11 - Aspect narratif du contenu ou du contexte : un morceau de musique construit autour d'un texte preexistant (parfois bien connu), par exemple, la transformation electroacoustique de la poesie en prose, cf. Berio Thema-Omaggio a Joyce (1958), Paul Lansky Six Fantasies on a Poem by Thomas Campion, ou meme sur un evenement, cf. The Sinking of the Titanic par Gavin Briars.

12 – Guidage narratif : texte parle par une voix connue ou d'autorite, qui guide l'auditeur a travers la piece, cf. Hildegard Westerkamp Kits Beach Soundwalk (1989) ou Janet Cardiff The Missing Voice.

Page 108: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

107

13 - Suggestion narrative : les evenements vocaux ne sont pas mis en avant, mais servent a indiquer la presence ou l'activite humaine, cf. Katharine Norman People Underground (1996).

14 - Excitation phonetique : la voix est utilisee pour articuler d'autres sources de resonance, comme dans l'espace architectural d’Alvin Lucier I Am Sitting in a Room (1970) ou comme avec un synthetiseur du type Vocodeur.

15 - Juxtaposition et permutation semantique : Les Mamelles d’Apollinaire ou de l’ordonnancement ou re-ordonnancement des mots dans des pieces telles que Junk is no good baby ou les « cut-ups » de Brion Gysin et William S. Burroughs. L'utilisation par Cage de mesostics dans Roratorio (1979), Song Books (1970) et 63 Mesostics Re Merce Cunningham (1971). Cela peut etre assimile a la synthese granulaire.

16 - Juxtaposition et permutation de mots sans signification, ou invention de mots : Un nouveau langage n’est pas invente, mais de nouveaux mots sont inventes et inseres dans la langue deja existante. Jabberwocky de Lewis Carroll dans Alice à travers le miroir. Christian Morgenstern Kinkajou ‘kroklolwafzi’ (autour 1890), le poeme de Paul Scheerbart ‘kikakoku’ ou encore le poeme sonore d’Henri Chopin Grenouilles d’Aristophane.

17 - Nouvelles langues ou metalangages : les langues sont constituees de façon plausible a partir de phonemes deja existants, cf. Kruchenkykh la poesie Zaum, McClure Beast Language, de Paul Lansky les series de Idle Chatter.

18 - Synthese de la parole generee par ordinateur : par exemple, Charles Dodge et ses experiences sur la parole et sa synthese dans des œuvres telles que Speech Songs (1972), ou un materiau avec du discours genere par ordinateur, par exemple, Paul Lansky Idle Chatter.

19 - Composition de texte dans le cadre du processus de composition : par exemple, Paul Lensky Now and Then (1991) et Things She Carried (1995-1996)

Page 109: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ANNEXE 3 : O Superman– Laurie Anderson (1982)

Paroles et leur traduction

108

Ô Superman.Ô juge.Ô maman et papa.Maman et papa.(x2) 

Salut. Je suis pas chez moi maintenant. Mais si vous voulez laisser un message, vous n'avez qu'à parler après le bip sonore. Allô ? C'est ta mèreEs-tu là ?Viens-tu à la maison ? Allô ?Y a-t-il quelqu'un à la maison ?Eh bien, vous ne me connaissez pas, mais je vous connais.Et j'ai un message à vous donner.

Les avions arrivent.Alors vous feriez mieux d'être prêts.Prêts à partir.Vous pouvez venir tels que vous êtes, Mais payez au fur et à mesure.Payez au fur et à mesure. Et j'ai dit : OK. Qui est-ce vraiment ? Et la voix a dit :C'est la main, la main qui prend.C'est la main, la main qui prend.C'est la main, la main qui prend.

Les avions arrivent.Ce sont des avions américains.Fabriqués en Amérique.Fumeur ou non-fumeur ? Et la voix a dit : Ni la neige ni la pluie ni l'obscuritéde la nuit ne doivent empêcher ces coursiers d'efectuer l'accomplissement rapide de leurs tournées. Car quand l'amour s'en est alléIl y a toujours la justice.Et quand la justice s'en est alléeIl y a toujours la force.Et quand la force s'en est alléeIl y a toujours maman.Salut maman ! Alors prends-moi, Maman, dans tes longs bras.Alors prends-moi, Maman, dans tes longs bras.Dans tes bras automatiques.Tes bras électroniques.Dans tes bras.Alors prends-moi, Maman, dans tes longs bras.Tes bras pétrochimiques.Tes bras militaires.Dans tes bras électroniques.

O Superman.O judge.

O Mom and Dad.Mom and Dad.

(x2)

Hi. I'm not home right now. But if you want to leave a message, just start talking at the sound of the tone.

Hello? This is your Mother. Are you there?

Are you coming home?

Hello?Is anybody home?

Well, you don't know me, but I know you.And I've got a message to give to you.

Here come the planes.So you better get ready.

Ready to go. You can come as you are,

but pay as you go.Pay as you go.

And I said: OK. Who is this really? And the voice said:This is the hand, the hand that takes.This is the hand, the hand that takes.This is the hand, the hand that takes.

Here come the planes.They're American planes.

Made in America.Smoking or non-smoking?

And the voice said: Neither snow nor rain nor gloom

of night shall stay these couriers from the swifcompletion of their appointed rounds.

'Cause when love is gone,there's always justice.

And when justive is gone,there's always force.

And when force is gone,there's always Mom.

Hi Mom!

So hold me, Mom, in your long arms.So hold me, Mom, in your long arms.

In your automatic arms.Your electronic arms.

In your arms.So hold me, Mom, in your long arms.

Your petrochemical arms.Your military arms.

In your electronic arms

Page 110: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ANNEXE 4 : Nightcall – Kavinsky (2010)Paroles et leur traduction

109

I'm giving you a Nightcall To tell you how I feel

I want to drive through the night Down to the hills

Im gonna tell you something you Don't wanna hear

I gonna show you where it's dark But have no fear

There's something inside you It's hard to explain

They're talking about you boy But you're still the same

(x2)

Je t'appelle tard dans la nuit Pour te dire ce que je ressens Je veux t'emmener à travers la nuit Au pied des collines

Je vais te dire quelque chose que tu N'as pas envie d'entendre Je vais te montrer où il fait sombreMais n'aie pas peur

Il y a quelque chose en toi C'est dificile à expliquer Les autres parlent de toi, garçonMais tu restes le même (x2)

Le texte entier est répété deux fois.

Page 111: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ANNEXE 5 : Deer Stop – Goldfrapp (2000)

Paroles et leur traduction

110

Le texte de cette chanson n'a jamais été dévoilé par le groupe et il est difficile de le comprendre à l'écoute à cause de l'élocution d'Alison Goldfrapp et des effets appliqués à celui-ci. Il n'est donc pas sûr que la retranscription de ce texte soit exacte. De plus, je n'ai pas pu retranscrire la fin du vers « Don't shoot your stars » tant l'effet est intense sur ce passage. Les mots indiqués par des astérisques sont ceux dont je ne suis pas sûre de la compréhension.

* « Deer » peut aussi s'entendre « Dear » bien que ce mot fasse partie du titre du morceau. En efet, le groupe cultive beaucoup le mythe de l'homme-animal, il pourrait donc s'agir d'un jeu de mot. La phrase se lirait alors, ponctuation incluse, « Dear stop... Bottle in a shell  (Chéri arrête... bouteille dans une coquille) », rendant son début encore plus suggestif bien que la fin du vers reste encore mystérieuse.

** « Lust » peut aussi s'entendre « Lush » qui se traduit par « luxuriant » mais aussi par « poivrot » ou par le verbe « se saouler ». Ce vers signifierait alors «poivrot à venir » ou peut-être « saoulerie à venir ». Cela donnerait un nouveau sens à la phrase précédente pouvant alors se comprendre « Dear, stop bottle, in a shell (chéri arrête la bouteille, dans une coquille) ». On peut aussi peut-être considérer « shell » comme étant la contraction de « nutshell », cette phrase signifiant alors « Chéri, en bref, arrête la bouteille ».

And I long to goLove started here

Shoot your starBe a light

Is that

Don't you callDeer* stop bottle in a shell

Shoot your thousand stars over me

Shoot your starsShoot your stars

To scream...

...Lust** to comeYou've arrested in my...

Say my nameWhisper it, don't ever turn

I'm deliciously wiredI'm falling in a cloud

Don't shoot your stars […]Shoot your thousand stars over

Deer stop bottle in a shellShoot your thousand stars over

Say my nameWhisper it

Et j'ai hâte d'y allerL'amour a commencé iciTire ton étoileSoit une lumièreEst-ce (ça)

N'appelle pasL'arrêt du cerf, bouteille dans une coquilleTire tes milles étoiles sur moi

Tire tes étoilesTire tes étoiles(Pour) crier...

...Luxure à venirTu t'es arrêté dans mon...

Dis mon nomMurmure-le, ne te tourne jamaisJe suis délicieusement câbléeJe tombe dans un nuage

Ne tire pas tes étoiles […]Tire tes milles étoiles

L'arrêt du cerf, bouteille dans une coquilleTire tes milles étoiles Dis mon nomMurmure-le

Page 112: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ANNEXE 6 : Captures d'écran des réglages des modules Izotope RX pour le morceau

Brained

Reglages du De-noise 1 place sur les deux premiers coupletsCe De-noise est celui qui amène l'élocution la plus naturelle mais qui comporte

beaucoup d'aigus, j'ai donc réglé ces paramètres pour minimiser cet aspect. La fonctionLearn n'est pas enclenchée. Les courbes de seuil du bruit et du signal utile(respectivement en jaune et orange) sont modulées par la courbe de réduction (en bleu).Le gain d'entrée est au maximum et le threshold au minimum. La valeur de réduction estchoisie pour obtenir une sorte d'équilibre. La taille de la FFT est de 200ms.

111

Page 113: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Dans la seconde fenêtre correspondant au réglages avancés, “Smoothing”contrôle la réduction du “Musical noise” (bruit musical, ou plutôt artéfacts tonaux, ceparamètre est sélectionné avec le curseur “Artifact control”). “Synthesis” permet desynthétiser des harmoniques aiguës au signal en sortie, mais il agit aussi étrangement surle signal retiré. “Enhancement” renforce les harmoniques naturelles du signal (et du bruitretiré). “Masking” diminue la réduction du bruit dans les zones où il est masqué grâce àun modèle psycho-acoustique. “Whitening” permet de rapprocher la courbe du seuil debruit résiduel de celle du bruit blanc. Tous ces paramètres agissent sur le spectre durésidu que je vais obtenir, je les règle donc en conséquence. Néanmoins, la plupart de cesajustements sont réalisé un peu au hasard car je teste les positions des curseurs au fur età mesure et n'y touche plus lorsque la texture en sortie me plaît. Leur action sur le son esttrès modérée contrairement aux paramètres décrits précédemment.

Le “Knee” et “Release” jouent sur la transition entre le moment où le signal estintact et celui où le programme commence à en extraire du bruit. Un “Knee” plus élevépermet de retirer du bruit avant même que le signal ne dépasse le seuil et le “Release”définit le temps de relâche lorsque le niveau de bruit revient sous le seuil. Dans monusage détourné, le “Release” va gérer l'extinction du son et le “Knee” va avoir uneinfluence sur l'attaque mais aussi son contenu spectral.

112

Page 114: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Reglages du De-noise 2 place sur les deux premiers coupletsCe De-noise est celui qui transforme le plus le son mais rend l'élocution

dificilement audible. La fonction “Learn” est enclenchée, les gains d'entrée et de sortiesont à leur maximum, tout comme la réduction. Le “Threshold” est quasiment au plusbas. La taille de la FFT est de six millisecondes. Le “Knee” est à son maximum et le“Release” au minimum, ce qui amplifie l'étrangeté de l'élocution. Des valeurs plus élevéesde “Masking” et le “Whitening” auraient rendu le son plus naturel.

113

Page 115: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Reglages du De-Click place sur les deux premiers coupletsL'algorithme est ici celui de la détection de clics aléatoires multibandes. Le gain

d'entrée, la sensibilité et le “Click widening” sont au plus haut, le résidu obtenu est doncplutôt continu. Le biais fréquentiel augmente légèrement la détection des clics à bassefréquence, donnant un rendu plus naturel.

Reglages du De-Click place sur le deuxième refrainL'algorithme est maintenant celui de la détection de clics aléatoires à bande

simple. La sensibilité et le gain d'entrée sont à leur maximum. Le biais fréquentiel n'a plusd'influence avec ce type d'algorithme. Le “Click widening” est cette fois beaucoup plusfaible, ce qui explique l'impression d'entendre de très courts clics de saturation.

114

Page 116: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

Reglages du De-Clip place sur le dernier coupletLe gain d'entrée est au plus haut, la détection de la saturation se produit à partir

de -39 dBFS.

Reglages du De-Clip place sur le dernier coupletLe gain d'entrée est au plus haut, la détection de la saturation se produit cette fois

dès -61,5 dBFS, ce qui explique le renforcement de la dégration du son.

115

Page 117: PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...

ANNEXE 7 : Questionnaire proposé au public

116

1. Êtes-vous ingénieur du son  ? [oui/non]

2. Êtes-vous musicien  ? [oui/non]

3. Quel âge avez-vous  ? [fenêtre à compléter]

4. Écoutez-vous de la musique électronique  ? [jamais/rarement/de temps en temps/ fréquemment]

(Un lecteur permet d'ecouter ma partie pratique de memoire)

5. Que pensez vous de ce morceau  ? (de 0  : "je n'ai pas du tout aimé" à 10  :"j'ai vraiment adoré") [barème de 0 à 10]

6. Quelles émotions ressentez-vous à l'écoute de ce morceau  ? (Par exemple  : joie, inquiétude, nostalgie, optimisme, tristesse,...) [fenêtre à compléter]

7. Pourriez-vous expliquer quel(s) élément(s) de ce morceau vous ont conduit à ressentir ces émotions  ? [fenêtre à compléter]

8. À votre avis, qu'apporte l'ajout de l'efet sur la voix à ce morceau  ? [fenêtre à compléter]

9. D'après vous, qu'est ce que l'ajout de l'efet sur la voix retire à ce morceau  ? [fenêtre à compléter]

10. Cela vous fait-il penser à un autre morceau ou à un autre musicien  ? Si oui, lequel ou lesquels  ? [fenêtre à compléter]

11. Auriez-vous un dernier commentaire à faire à propos de cette création  ? (ce qui vous a le plus ou le moins plu, un élément qui vous a intrigué, une remarque, une question...) [fenêtre à compléter]