PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...
Transcript of PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR ...
Mémoire de fin d'études
École Nationale Supérieure Louis LumièrePromotion 2018
Section Son
Salomé BENOIST
PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR DÉTOURNEMENT
D'EFFETS APPLIQUÉS À LA VOIX
Directeur interne : Pascal Spitz
Directeur Externe : Charles Michaud
Rapporteur : Jean Rouchouse
REMERCIEMENTSUn grand merci à ...
1
Yohan BOISGONTIER, pour avoir été mon co-producteur et un ami de bon conseil.
Aloyse LAUNAY, pour son coaching vocal et son aide sur la composition.
Benoît FLEURY, pour sa disponibilité et son soutien.
Pascal SPITZ et Charles MICHAUD, pour m'avoir soutenue en tant que directeurs de
mémoire.
Caroline ROUZAUD et Philippe BENOIST pour leur appui et leur réconfort.
Et enfin, merci au Club du CDI pour sa présence quotidienne et son assistance
morale.
RÉSUMÉ
M'interrogeant sur la portée des efets appliqués à la voix, c'est-à-dire
des traitements sonores qui font fit de la transparence et altèrent la source
de manière évidente, mon désir pour ce mémoire était de créer une pièce de
musique électronique intégrant cette réflexion. J'y démontre que ces
derniers peuvent transformer la texture et l'élocution du chant et ainsi en
faire de nouveaux moyens expressifs. Les efets que j'utilise sont obtenus par
détournement des modules de la suite Izotope RX, destinés principalement
au nettoyage et à la réparation d'enregistrements. Le détournement est un
vecteur majeur de création en musique. Par ce procédé, j'espère ainsi
obtenir des matières sonores inédites à inclure dans ma composition.
Néanmoins, je souhaite ancrer ma production dans la pratique populaire
musicale. Ainsi, je cherche à la rendre plaisante à l'écoute et compréhensible
intuitivement, sans nécessité d'intellectualisation, tout en tentant de
transmettre par tous les aspects de la composition les sentiments exprimés
par les paroles de ce morceau.
Réussirais-je à communiquer des émotions grâce à l'usage de ces
nouveaux efets tout en proposant une pièce musicale répondant aux codes
de la création actuelle ?
Mots-clés :
musique électronique – voix – efets sonores – composition – détournement
– Izotope RX
2
ABSTRACT
As I was questioning myself about the scope of efects applied to voice,
which are sound treatments that don't bother about transparency and
obviously alter the source, I desired for this Master's thesis to create a
electronic music piece which integrate this reflection. I explain that they can
transform the texture and the elocution of the voice into new expressive
means. The efects I use are obtained by hijacking the Izotope TX plug-ins,
mainly intended for cleaning and repairing records. Hijacking is a major
vector in musical creation. By this process, I hope to obtain new sound
materials to include in my composition. Nevertheless, I wish to anchor my
production in popular musical practice. Thus, I try to make it pleasant to
listen and intuitively understandable, without the need for
intellectualization, while trying to convey through all aspects of the
composition the feelings expressed by the lyrics of this piece.
Would I succeed in communicating emotions through these new
efects while ofering a musical piece that meets the codes of the current
production ?
Keywords :
electronic music – voice – sound efects – composition – hijacking – Izotope
RX
3
TABLE DES MATIÈRESREMERCIEMENTS.......................................................................................................... 1
RÉSUMÉ........................................................................................................................ 2
ABSTRACT..................................................................................................................... 3
TABLE DES MATIÈRES.................................................................................................... 4
INTRODUCTION.............................................................................................................6
I. LES ENJEUX DU DÉTOURNEMENT, DES EFFETS, ET DE LEUR APPLICATION À LA VOIX. .8
1) LE DÉTOURNEMENT DES OUTILS, VECTEUR DE NOUVEAUTÉ EN MUSIQUE.................9a – Premiers détournements technologiques, les expérimentations des musiciens savants............................................................................................................................ .10
b – Le détournement des traitements du son, une afaire d'ingénieur du son .........15c – Bricolage et sérendipité en musique électronique, l'afaire de tous.....................20
2) ANALYSER LA VOIX ET SES TRAITEMENTS..................................................................... 26a – L'efet, renfort de la signification ........................................................................... 26b – L'inquiétante étrangeté de la voix traitée............................................................... 30c – « Le grain de la voix » et la recherche d'une approche intuitive............................35
3) INTRODUCTION DE LA VOIX DANS LA MUSIQUE ÉLECTRONIQUE PAR L'USAGE D'EFFETS............................................................................................................................ 39
a – La représentation de l'humanoïde par l'autotune et le vocodeur........................40b – L'expression des sentiments par l'usage de l'efet................................................45
II. PROPOSITION D'UN NOUVEL EFFET APPLIQUÉ À LA VOIX OBTENU PAR DÉTOURNEMENT.................................................................................................................... 52
1) LES PRÉMICES DE LA CRÉATION.................................................................................... 53a – Présentation de la suite Izotope RX........................................................................ 53b – Essais pour l'obtention de nouvelles textures avec la suite Izotope RX...............59c – Les acteurs de la création........................................................................................ 65d – Le choix du thème et des paroles........................................................................... 68
2) RÉALISATION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE..........................................73a – La création de la première maquette..................................................................... 73b – Les ajustements et le choix de la structure............................................................ 76c – Le travail sur la voix................................................................................................. 79d – Le mixage................................................................................................................. 84
4
III. CRITIQUES ET RÉFLEXIONS AUTOUR DU RÉSULTAT...................................................... 87
1) LA MISE EN PLACE DU QUESTIONNAIRE....................................................................... 88
2) RETOURS DU PUBLIC SUR LA CRÉATION...................................................................... 90a – Retours généraux..................................................................................................... 90b – Les émotions ressenties.......................................................................................... 91c – La compréhension et l'appréciation de l'efet.......................................................92d – La reconnaissance des influences.......................................................................... 94
CONCLUSION...............................................................................................................96
BIBLIOGRAPHIE......................................................................................................... 100
DISCOGRAPHIE.......................................................................................................... 102
TABLE DES ILLUSTRATIONS....................................................................................... 103
ANNEXES................................................................................................................... 104
5
INTRODUCTIONM'interrogeant sur la portée des efets appliqués à la voix, c'est-à-dire
des traitements sonores qui font fit de la transparence et altèrent la source
de manière évidente, mon désir pour ce mémoire est de créer une pièce de
musique électronique intégrant cette réflexion. Cette création représente un
défi car je suis néophyte en la matière, mais cette expérience me permettra
d'aborder sans à priori toutes les dificultés liées à ce processus. De plus,
j'obtiendrai mes efets par détournement des fonctions de la suite de
modules Izotope RX, destinée principalement au nettoyage et à la réparation
d'enregistrements.
Le détournement est un vecteur majeur de création en musique qui a
permis de nombreuses innovations autant artistiques que techniques. Par ce
procédé, j'espère obtenir de nouvelles textures dont l'originalité permettrait
de se soustraire des préconceptions concernant les efets les plus connus,
notamment l'auto-tune et le vocodeur. Cependant, je chercherai à introduire
ces matières sonores inhabituelles dans une production musicale ancrée
dans la culture populaire. Ainsi, je m'eforcerai de rendre cette pièce
musicale plaisante et compréhensible intuitivement, sans nécessité de
l'intellectualiser. Je pense d'ailleurs que l'usage d'efets appliqués à la voix
peut aider à transmettre des émotions de manière instinctive.
Ainsi, je me demande simplement ce qu'il va résulter de cette création.
Réussirais-je à exprimer des émotions grâce à l'usage de ces nouveaux efets
tout en proposant une pièce musicale répondant aux codes de la création
6
actuelle ?
Je commencerai donc par étudier comment le détournement des
technologies permet d'innover en musique, avant de m'interroger sur les
techniques d'analyse de la voix dans la musique électronique et électro-
acoustique, puis d'examiner des exemples dans lesquels les efets appliqués
à la voix ont permis de compenser la perte d'expression vocale de la
production actuelle. Dans une seconde partie et à la lumière de ces
recherches, j'expliquerai la réalisation de ma partie pratique de mémoire, de
ses prémices à son aboutissement et je me questionnerai sur la réussite de
ce projet en m'appuyant sur les retours du public.
7
I. LES ENJEUX DU
DÉTOURNEMENT, DES EFFETS,
ET DE LEUR APPLICATION À LA
VOIX
8
1) LE DÉTOURNEMENT DES OUTILS : VECTEUR
DE NOUVEAUTÉ EN MUSIQUE
Il est dificile d'établir une frontière fixe entre musique savante et
musique populaire sans porter un jugement de valeur à l'une de ces deux
approches. De plus, il n'existe pas de rupture technologique majeure entre
elles, les outils électroniques étant souvent les mêmes malgré des interfaces
d'utilisation diférentes. On pourrait tenter de définir la musique populaire
par sa tendance à se standardiser, les compositeurs essayant de s'inscrire
dans un courant musical pour être reçu par son public, et à l'inverse la
musique savante comme la possibilité d'innover du tout au tout à chaque
composition1. Cependant, dans les deux approches musicales, on trouve des
acteurs qui n'ont cessé d'inventer de nouvelles technologies et de nouvelles
manières de les utiliser, s'inspirant les uns les autres et procédant de
manière similaire. En efet, beaucoup de détournements technologiques
sont nés par sérendipité, soit le fait d'efectuer des découvertes par hasard,
mais cela n'exclut pas que certains détournements aient été efectués
consciemment dans le but de créer de nouvelles sonorités. Dans tous les cas,
les musiciens et ingénieurs du son se sont servis des machines qui les
entouraient pour y procéder.
Néanmoins, une manière intéressante d'aborder la distinction entre
musique populaire et savante est celle de Schönberg, qui voit la diférence se
1 Bruno Bossis, La voix et la machine, Rennes, Presse universitaire de Rennes, 2005, p.233
9
situer dans l'idée de composition logique ou instinctive2. Ainsi, la musique
savante serait intellectualisée à priori, chercherait à être objective et à faire
avancer la recherche musicale tandis que la musique populaire serait de
l'ordre de l'intuitif, on y chercherait plus volontairement un plaisir
esthétique avant de s'intéresser à la signification que chaque élément en son
sein pourrait porter. Le détournement, vecteur de création dans ces deux
cas, répond donc à des nécessités diférentes.
a – Premiers détournements technologiques, les
expérimentations des musiciens savants
Une autre diférence entre les approches savante et populaire est que
les musiciens savants se sont rapidement fait construire des studios-
laboratoires pour y travailler avec des scientifiques leur mettant au point des
outils dédiés à leur composition, évitant les balbutiements des premiers
détournements d'outils, chose qui n'a pas eu lieu pour la musique populaire.
On peut citer à cet efet le studio de musique électronique de Cologne fondé
en 1951, le GRMC (Groupe de Recherche Musicale Concrète) qui devient de
GRM en 1958, le studio de phonologie de Milan, spécialisé en musique
électroacoustique, en 1955 et l'Ircam (Institut de Recherche et Coordination
Acoustique/Musique) en 1969. D'ailleurs, dès 1933, Edgard Varèse écrit à la
fondation Guggenheim et aux laboratoires Bell espérant obtenir des fonds
pour construire le premier studio de musique électronique. Comme pour lui,
il devient indispensable aux visionnaires Karlheinz Stockhausen, Luciano2 Arnold Schöenberg, Le style et l'idée, écrits réunis par Léonard Stein et traduits de
l'anglais par Christiane de Lisle, Paris, Buchet/Chastel, 1977, p.89
10
Berio, Pierre Schaefer, Pierre Henry et Pierre Boulez de travailler dans des
studios dédiés pour avoir accès aux machines nécessaires à la composition
de musique électronique et électroacoustique. Cet état de fait se simplifiera
avec l'évolution des ordinateurs et la possibilité de composer sur sa station
de travail audionumérique personnelle, mais ils feront toujours appel à ces
studios-laboratoires pour qu'ils développent des logiciels et outils dédiés.
Néanmoins, avant la construction de ces lieux de recherche, les
musiciens ont du se débrouiller par eux-mêmes pour innover. Par manque
de moyens, ils ont ainsi du détourné les machines qu'ils avaient à
disposition. La première pièce de musique électroacoustique, Imaginary
Landscape No1, est composée par John Cage en 1939 alors qu'il travaillait
dans un studio de radio à Seattle. Elle est écrite pour quatre
instrumentistes : un percussionniste qui joue de la cymbale chinoise (dont
les bords sont recourbés), un pianiste qui gratte les cordes du piano et en
éteint le son avec sa main et les deux autres joueurs qui sont assignés à des
platines vinyles jouant des disques Victor Frequency Record. Ces
enregistrements étaient constitués de notes constantes ou même de
fréquences pures et étaient destinés à tester la bande passante des
appareils. En plus de détourner ces disques, John Cage fait varier la vitesse
de lecture entre trente-trois et soixante-dix-huit tours par les exécutants
pour modifier la hauteur de ces sons. Dans sa composition Imaginary
Landscape No3, écrite pour six percussionnistes, il ajoutera aux platines
difusant des notes uniques des générateurs de fréquences, plus maniables,
des buzzers (sonnettes), et une bobine de fil amplifiée attachée au bras d'un
phonographe. Cette dernière technique lui avait été montrée par un bruiteur
11
radiophonique.
Ainsi, en mêlant instruments de musique et appareils électriques,
John Cage fonde les bases de la musique électroacoustique. On remarque
qu'il a été inspiré par son environnement, en détournant des éléments du
studio où il travaillait. En 1941, John Cage tente lui aussi de fonder un centre
de musique expérimentale, chose qui finalement ne sera rendue possible
qu'après la guerre. La génération de fréquences sera très utilisée par la suite
pour construire les premiers synthétiseurs électroniques, qui ne se limiteront
plus à une simple sinusoïde et dont chaque note de la gamme est créée par
un générateur. En cela, John Cage était le premier à intégrer cette technique,
ou du moins cette idée, dans la musique.
Un second pionnier dans ce domaine qui a aussi mené ses
expérimentations dans un studio radiophonique est Pierre Schaefer. En
1948, il est à la tête d'une petite équipe de recherche au sein de l'ORTF
(Ofice de Radiodifusion-Télévision Française) et s'adonne à des
enregistrements expérimentaux de bruits dans le but de créer une pièce
musicale à partir de cela. Dans le livre À la recherche d'une musique concrète
qui compile notamment ses journaux, il raconte comment lui vient
progressivement l'idée de sa première pièce concrète Étude aux chemins de
fer. Tout d'abord, il essaye d'utiliser bon nombre d'accessoires de bruitage
disponibles à l'ORTF mais les trouve trop explicites. Au cours de
l'enregistrement de ces éléments divers, il remarque qu'ayant coupé
l'attaque d'une cloche par erreur, il n'est plus possible de reconnaître
l'origine du son. C'est à ce moment qu'il décide de rester en régie plutôt
12
qu'en studio pour expérimenter ces suppressions d'attaque du son, jouant
aussi à remonter leur niveau pendant leur déclin. Il se prend ainsi à rêver
d'un clavier qui pour chaque touche déclencherait la lecture d'un de ces
sons de cloche sachant qu'il a enregistré une note diférente par disque –
inventant au passage le concept du mellotron. Abandonnant ses rêveries
pour le « piano le plus général qui soit 3 », il réalise finalement qu'il vient tout
de même de créer quelque chose de nouveau : « [l'invention s'est produite]
quand j'ai touché le son des cloches. Séparer le son de l'attaque constituait
l'acte générateur. Toute la musique concrète était contenue en germe dans
cette action proprement créatrice sur la matière sonore. 4» Pierre Schaefer
qui tentait jusqu'alors d'écrire de la musique par le bruit va dorénavant
l'écrire par le son. La musique concrète était née, du moins en idée, et
contrairement aux autres genres musicaux elle ne désigne plus le matériau
sonore qui la compose mais se définit par le geste du détournement. Pierre
Schaefer ajoute cependant : « Je n'ai aucun souvenir particulier de l'instant
ou cette prise de son a été réalisée. La trouvaille est d'abord passée
inaperçue. 5» En efet, la première coupe d'un son par Pierre Schaefer était
une erreur, il va pourtant développer cette technique se mettant en tête de
créer une pièce musicale pour locomotives.
Par la suite, il composera ses œuvres à l'aide de bandes magnétiques
préenregistrées en jouant sur les coupes, la vitesse de lecture pour modifier
la hauteur du son et la mise en boucle de certains extraits. Il va aussi
inventer la technique du sillon fermé qui consiste à graver sur un disque les
3 Pierre Schaeffer, À la recherche d'une musique concrète, Paris, Éditions du Seuil, 1952, p.16
4 Pierre Schaeffer, Ibid., p.165 Pierre Schaeffer, Ibid., p.16
13
sillons en cercle et non en spirale ce qui permet de jouer un son
indéfiniment, l'idée provenant du dernier sillon des vinyles qui boucle sur
lui-même. Ces pratiques ont aujourd'hui investi largement la musique
populaire sous le nom de sample (littéralement « échantillon ») et de la
fonction loop (mise en boucle) intégrée comme fonction de base sur les
stations de travail audionumériques. Il n'est pas rare aujourd'hui d'entendre
des morceaux dont la rythmique est issue de sons concrets mis en boucle,
notamment dans le genre trip-hop, juste héritage des expérimentations de
Schaefer.
John Cage et Pierre Schaefer ont tout deux été des pionniers en terme
de recherche musicale ayant pour point commun d'avoir détourné des
machines de leur fonction pour arriver à leurs fins. Le premier commence
par détourner un objet sonore, le disque de fréquence, avant de détourner le
medium, la platine vinyle qui devient un instrument pour l'exécution de la
pièce. Le second détourne d'abord le medium, en lançant l'enregistrement
trop tard par erreur, avant de décider d'y enregistrer des sons inhabituels.
Ainsi John Cage a souvent considéré comme secondaire l'utilisation de
l'électronique dans sa musique, tous les sons existants étant susceptibles
d'entrer dans sa composition. Dans les deux cas, leurs expériences ont
fortement influencé l'évolution de la musique, même après l’avènement des
musiques expérimentales et concrètes. Cependant, au-delà de la naissance
de nouveaux genres musicaux et de nouveaux instruments, ce n'est pas dans
la musique savante qu'on trouve le plus de tâtonnements en terme de
traitements et d'efets appliqués au son, bien que leur utilisation se
développe grâce aux logiciels inventés en laboratoires. Le haut-lieu du
14
détournement des technologies dans ce domaine se trouve à Londres, dans
les années soixante.
b – Le détournement des traitements du son, une affaire
d'ingénieur du son
En 1962, Geof Emerick intègre le studio EMI de Londres à l'âge de
seize ans et assiste aux premières séances des Beatles en tant que stagiaire,
aux côtés du producteur George Martin et de l'ingénieur du son Norman
Smith. À cette époque, le groupe joue encore en live (en direct tous
ensemble) dans le studio et ne ré-enregistre que très peu de parties à
postériori. Les micros sont placés par des techniciens en blouse blanche
sous les directives de l'ingénieur, qui doit suivre les règles strictes établies
par la maison de disque en terme d'enregistrement. Après être passé aux
postes d'assistant à l'enregistrement, de graveur de disque acétate et
d'ingénieur de mastering, Geof Emerick obtient la place de Norman Smith
en 1966 et enregistre Revolver, le septième album des Beatles. Dès ce
premier album en tant qu'ingénieur du son, il n'hésite pas à enfreindre
toutes les règles d'EMI quant à l'enregistrement et au traitement des
sources. Heureusement, il sera protégé par la notoriété des Beatles qui
l'encourageront dans ses expérimentations.
Ainsi, le jeune ingénieur du son âgé de seulement dix-neuf ans conçoit
les bases de la prise de son et du mixage analytiques actuels. Il commence
par rapprocher et multiplier le nombre de micros sur la batterie en plaçant
15
deux overheads6, un micro caisse claire et un micro grosse caisse. Il propose
d'ailleurs de mettre un pull épais dans celle-ci pour la rendre plus mate, elle
se diférencie alors mieux des toms et devient plus percutante. Les micros
des autres instruments sont aussi placés avec plus de proximité ce qui
l'oblige à compresser ses sources pour retrouver une dynamique équivalente
au placement lointain des micros. Néanmoins, il poussera la compression et
utilisera même des limiteurs à des fins esthétiques et pour donner la
sensation que tous les instruments sont plus proches.
Grâce à ces infractions aux bonnes manières selon EMI, le son des
Beatles ne ressemble déjà plus à aucun autre, mais Geof Emerick ne s'arrête
pas là et détourne tout ce qui peut l'être dans le studio. Par exemple, il utilise
un magnétophone pour créer un efet d'écho sur bande, le studio ne
possédant pas encore de machine dédiée, en se servant de la distance entre
la tête d'écriture et la tête de lecture pour créer le délai nécessaire. Cette
technique est déjà utilisée depuis le début des années cinquante aux États-
Unis, notamment par Les Paul ce qui lui permet de considérablement étofer
le son de sa guitare. Cependant, Geof Emerick ajoute à cela le retrait de la
tête d'efacement et réinjecte directement le signal de sortie du
magnétophone en entrée jusqu'au point de faire saturer la bande, tandis
que Les Paul ne faisait que doubler légèrement sa guitare. On entend ce son
caractéristique sur la fin des couplets de Paperback Writer.
Une autre des techniques qu'il invente, mais qu'il n'utilisera que sur
une seule chanson, est l'utilisation d'un haut-parleur dynamique pour
6 Couple de microphones qui se place en général au dessus de la batterie, au niveau des cymbales.
16
enregistrer les fréquences très graves de la basse. Frustré que le son de Paul
McCartney ne ressemble pas tout à fait à celui des productions américaines,
il évoque cette idée avec George Martin qui le prend d'abord pour un fou. Il
en fait ensuite part à l'un des ingénieurs de maintenance, plus ouvert à la
discussion sur ce sujet, qui lui fournira un haut-parleur avec les connectiques
nécessaires pour le brancher sur une entrée micro. En efet, le principe de
construction d'un haut-parleur est le même que celui d'un micro
dynamique, ils consistent tous deux en l'enroulement d'une bobine autour
d'un aimant fixé à une membrane. Dans un cas, la variation de courant
électrique traversant la bobine fait osciller l'aimant et de ce fait la
membrane pour produire du son tandis que dans le second cas, c'est
l'oscillation de la membrane, et donc de l'aimant, qui produit une variation
de courant dans la bobine. Cette technique de prise de son est encore
utilisée aujourd'hui, notamment sur les contrebasses, pour en obtenir les
sons les plus graves sans avoir besoin de les remonter artificiellement lors
du mixage.
Geof Emerick expérimente aussi beaucoup de traitements sur les voix
des Beatles au cours des diférents albums. Pour son premier enregistrement
avec eux sur la chanson Tommorow Never Knows, John Lennon déclare qu'il
veut que sa voix sonne « comme celle du Dalaï-Lama chantant en haut d'une
montagne 7». Pour répondre à ce désir, il décide de faire passer la voix du
chanteur dans une cabine Leslie, efet qui était jusqu'alors réservé à des
claviers pour en obtenir des trémolos convaincants. Plus tard, sur
l'enregistrement de I Am The Walrus, il saturera le préamplificateur de la
7 Geoff Emerick, En studio avec les Beatles (Here, There and Everywhere: My Life Recording the Music of the Beatles, 2006), Gémenos, Le mot et le reste, 2009, p.174
17
console, outrage suprême aux règles de la maison de disque, et fera chanter
John dans un vulgaire micro d'ordre, celui-ci lui demandant une voix
« paraissant venir de la lune 8».
Un autre procédé imaginé par l'ingénieur Ken Townsend fait son
apparition sous la demande du groupe, il s'agit de l'Automatic Double
Tracking (le doubleur de piste automatique). Cet appareil permet de doubler
automatiquement une prise vocale en décalant cette dernière de quelques
millisecondes pour éviter aux chanteurs d'avoir à chanter deux fois, ce que
détestaient faire les Beatles. Néanmoins, ce procédé avait déjà été utilisé
manuellement par Geof Emerick sur la piste de cuivres de Got To Get You
Into My Life car il trouvait que la section n'était pas assez fournie. Le Vari-
Speed (variateur de vitesse) est également inventé pour satisfaire les
Beatles. Il leur arrivait déjà d'enregistrer certaines parties à demi-vitesse du
défilement de la bande pour altérer le timbre d'instruments (technique
développée par George Martin en doublant les solos de guitare par un piano
à demi-vitesse). Dès Sgt. Pepper's Lonely Hearts Club Band, ils contrôlent
entièrement ce paramètre grâce à son réglage continu ce qui leur permet par
exemple de modifier le timbre de la voix de John Lennon dans les couplets
de Lucy in the Sky with Diamonds, qui semble ainsi plus aigu et lui donne un
air ingénu.
Il y aurait encore des dizaines d'expérimentations sonores à décrire
découlant des enregistrements des Beatles dont certaines ont d'ailleurs été
infructueuses et rapidement abandonnées – comme par exemple l'idée
d'enregistrer une voix en plaçant un micro dans une bouteille remplie d'eau,8 Geoff Emerick, Ibid., p.322
18
protégé par un préservatif, technique utilisée aujourd'hui dans d'autres cas
mais qui à l'époque était extrêmement dangereuse étant donné que les
micros étaient encore alimentés sous 240 Volts. Ce qu'on peut tout de même
retenir de ces tentatives est que nombreuses ont été celles qui ont fait
progressé les techniques d'enregistrement, bien qu'au moment où elles ont
été réalisées, Geof Emerick mettait en péril sa carrière pour chacune d'elle
tant le règlement en vigueur était rigide.
Finalement, lorsqu'il détourne une machine de sa fonction, que ce soit
une console, un magnétophone ou un micro, c'est qu'il cherche une nouvelle
coloration à donner au son, chose qui était dificile à l'époque car la gamme
d'efets disponibles était limitée. Contrairement à Pierre Schaefer, Geof
Emerick efectue tous ses détournement consciemment, pour innover mais
aussi pour rendre son travail ludique. Il raconte d'ailleurs qu'il s'était fixé
pour défi de ne jamais enregistrer un piano deux fois de la même manière.
Toutes ses découvertes ont ouvert la voie à une plus grande liberté de prise
de son et de traitements et à la spécification du mixage en fonction du style
musical. En efet, on n'imagine plus aujourd'hui devoir obéir à une seule
technique de prise et de traitement du son, au rendu plutôt naturel, pour
enregistrer tous les genres musicaux. De la même manière, Geof Emerick
s'est insurgé le premier contre ce principe, et à la vue du flot d'innovations
musicales que déversaient les Beatles, il est sans doute tombé sur le groupe
célèbre qui se prêtait le mieux à ses expérimentations.
Par la suite, il a été plus facile de modifier les sons pour les rapprocher
d'une esthétique voulue car les technologies ont évolué en conséquence. Il
19
est même aujourd'hui possible d'obtenir des résultats sonores semblables
tout en utilisant des traitements ou techniques diférentes. Pourtant, le
détournement existe toujours, pour bien des raisons et bien des usages.
c – Bricolage et sérendipité en musique électronique, l'affaire
de tous
Il est dificile de décrire l'arrivée du genre « électronique » dans la
musique populaire tant ses origines sont multiples et sa qualification vague.
Dans son Dictionnaire de la Musique, l'édition Larousse définit la musique
électronique par : «Nom donné, d'une manière très générale, à toutes les
musiques utilisant pour leur composition, leur réalisation ou leur exécution,
des appareils électroniques (instruments, synthétiseurs, magnétophones,
ordinateurs, etc.), et, dans un sens plus particulier, à la musique
spécifiquement composée sur bande magnétique (on dit alors en français,
plus communément, musique électroacoustique). Enfin, dans un sens
restreint et localisé, cette expression désigne la musique créée
exclusivement avec des sons électroniques de synthèse, à l'exclusion de
toute source dite « concrète ». » En s'en tenant à la première partie de cette
définition, on pourrait considérer quasiment toutes les musiques composées
aujourd'hui comme étant électroniques, ce qui ne permet pas de discriminer
eficacement ce à quoi on souhaite se référer. Cependant, avec la deuxième
partie de cette définition, il conviendrait d'exclure bon nombre de morceaux
étant pourtant réputés pour faire partie de ce genre. On peut penser
notamment aux morceaux contenant de la voix ou intégrant ponctuellement
20
un instrument acoustique. En ce qui concerne son origine, plusieurs courants
musicaux électroniques sont apparus un peu partout dans le monde,
relevant souvent d'une culture « underground » (culture alternative), et
parfois sans même s'être inspirés les uns des autres. En efet, beaucoup de
ces premières productions étaient réalisées avec très peu d'argent, hors des
circuits de distribution et de médiatisation habituels et ne dépassaient donc
pas les frontières nationales, voire même les frontières des villes.
Cependant, une des caractéristiques communes à ces courants
musicaux est l'abondance du mésusage, de l'abus et parfois même du
détournement des technologies employées dans le but de renouveler la
création, ou parfois même tout simplement de créer lorsque des outils
dédiés sont trop chers. Par exemple, avant que des musiciens électroniques
ne jouent leurs compositions, les discothèques étaient uniquement animées
par des DJ's (Disc-jockeys) qui passaient les vinyles célèbres de l'époque.
Soucieux que le public ne cesse de danser et que la tension monte tout au
long de la nuit, les DJ's passaient des extraits de plus en plus courts, de plus
en plus rapides et n'étant parfois qu'instrumentaux pour encourager
l'immersion musicale des danseurs. Au début des années quatre-vingt, le DJ
Frankie Knuckles devint célèbre en complétant ses platines d'une boîte à
rythme bon marché pour enrichir ses disques de disco, il sera ainsi le
pionnier de la House Music à Chicago. À cette époque, les boîtes à rythme
n'étaient destinées qu'à figurer sur les maquettes de musiciens ou à
accompagner en concert les groupes manquant d'un batteur. Leur son était
très sommaire, ne ressemblant finalement que très peu à un véritable kit de
batterie acoustique. Néanmoins, ces mauvaises imitations vont forger le son
21
de la musique électronique qui va se nourrir abondamment des erreurs de
ses machines.
De cette même manière, le Roland TB-303, synthétiseur et séquenceur
de basse, sera à l'origine du courant de l'Acid-House au milieu des années
quatre-vingt. Ce dernier avait pour but d'aider les guitaristes solistes en
s'accompagnant d'une ligne de basse, mais il devint rapidement obsolète
tant son rendu est éloigné d'un son de basse réelle. Les compositeurs se sont
ainsi emparés de cet outil quelques années après, lorsqu'il était facile d'en
trouver en occasion à des prix très bas, et ont poussé la machine dans ses
retranchements pour en obtenir ce son dit « acide ». En outre, la
programmation des séquences était très dificile et le résultat obtenu était
souvent éloigné de ce que les musiciens avaient essayé d'entrer dans la
machine, d'autant plus qu'en enlevant les batteries de l'appareil trop
longtemps, les séquences enregistrées avaient tendance à se modifier
aléatoirement. Ces défauts ont ainsi permis aux musiciens de s'inspirer de
ces aléas pour créer des lignes mélodiques inhabituelles. Finalement, le
mauvais usage de cette machine a permis d'étendre ses possibilités
créatrices, à priori limitées, tandis que les synthétiseurs plus complets
étaient hors de prix pour ces musiciens. Les boites à rythme TR-808 et TR-
909, provenant toujours de chez Roland, subiront le même destin, de l'échec
commercial à l'amour inconditionnel des musiciens électroniques. Ces deux
dernières ont d'ailleurs été utilisées et abusées par une myriade de
compositeurs, et ont encore une place d'honneur dans les banques des
séquenceurs virtuels actuels.
22
Au-delà du mésusage des outils technologiques, on retrouve
sporadiquement des exemples de détournement dans l'histoire de la
musique électronique. Cependant, ils ne sont pas aussi transgressifs que
chez les musiciens savants précédemment cités ou pour Geof Emerick et les
éléments de son studio. Le détournement est, dans les débuts, commis par
hasard et conservé s'il apporte une nouveauté sonore appréciable. Par
exemple, le scratch, technique consistant à faire bouger manuellement un
disque sur une platine vinyle d'avant en arrière pour en obtenir le frottement
du diamant sur la surface figure pour la première fois sur l'album The
Adventures of the Wheels of Steel de Grandmaster Flash en 1981 mais est
découverte quelques années plus tôt par un très jeune DJ. Theodore
Linvingston (qui se fera appeler par la suite Grand Wizard Theodore) raconte
qu'il fut interrompu par sa mère lorsqu'il s'entrainait à mixer sur ses platines.
Il arrête alors l'entrainement de la platine manuellement et frotte
accidentellement l'un des disques contre le saphir, découvrant le scratch. En
plus de nécessiter une action sur la platine vinyle, il est intéressant de
constater que le scratch ne dépend presque pas de la musique gravée sur le
disque, celui-ci devient alors un outil quelconque, prétexte à la virtuosité
instrumentale que vont développer les DJ's dans les années suivantes.
D'autres détournements vont s'opérer notamment lors de l'arrivée du
sampler Akai S1000 en 1988, le premier à fonctionner en 44.1 kHertz et 16
bits, qui poussera tous les anciens samplers à n'être plus utilisés que pour
leur dégradation du son en huit ou douze bits, les possesseurs d'anciens
modèles jouant de ce son “lo-fi” (low-fidelity, qui signifie basse fidélité) pour
continuer à utiliser leur machine. Néanmoins, l'engouement pour l'abus et le
23
détournement des technologies en musique électronique va se catalyser au
début des années quatre-vingt dix dans le glitch. Le « glitch » décrit
littéralement une brusque augmentation de tension dans un dispositif
électronique et c'est ce type de bug que va utiliser le genre musical pour
créer de nouveaux sons. Seront ainsi mis à profit les sautes des lecteurs CD,
la distorsion numérique, la tronque des échantillons sans compensation
d'erreurs, le bruit numérique, le bruit des disques durs et plus généralement
tout son généré par le mauvais fonctionnement du numérique.
Selon le musicien Kim Cascone, le glitch devrait plutôt être considéré
comme une esthétique tant les productions qui en sont issues sont variées et
il le qualifie de post-numérique étant donné qu'il découle de l’apparition du
CD (Compact Disk, ou disque compact en français) et des stations de travail
audionumériques personnelles9. Les premiers exemples de cette esthétique
se trouvent dans l'utilisation de CD's préparés à l'aide de bouts d'adhésifs
par Yasunao Tone en 1985 et la composition de Nicolas Collins comprenant
un quator à cordes et un CD qui saute en 1992 sur l'album It Was a Dark and
Stormy Night. Par la suite, le genre s'afirme avec les albums du groupe Oval
composés à l'aide des deux techniques précédemment citées et la création
de labels spécialisés dans le glitch, tel que Mille Plateaux en Allemagne qui
sortira la première compilation du genre en 2000, Clicks_+_Cuts. Comme ce
titre l'indique, le glitch fait souvent usage de sons très courts, des “clics” et
des “coupes”, qui tendent à remplacer les rythmiques des boites à rythme
habituelles. Ainsi, la majorité de ces morceaux ne cherche plus à donner le
9 Kim Cascone, « The Aesthetics of Failure : “Post-Digital” Tendencies in Contemporary Computer Music » (L'esthétique de la défaillance : Tendances “post-numériques” dans la musique assistée par ordinateur contemporaine), Computer Music Journal, vol. 24, n°4, Hiver 2000, p.12-18, p.13
24
son le plus “lourd” et le plus “gros” possible comme la musique électronique
l'avait principalement fait jusqu'alors, mais résulte en l'utilisation
minutieuse des craquements des machines, mettant en avant le détail des
erreurs de calcul, des parasites que les autres musiques cherchent à efacer.
Une partie de la production glitch possède donc une esthétique très
intimiste, qui s'écoute aisément au casque et maintient l'attention de
l'auditeur par l'évolution des sons microscopiques qui la composent tout en
le plongeant vertigineusement non plus dans la machine, mais dans les
données numériques elles-mêmes.
L'esthétique du glitch est toujours explorée aujourd'hui, par exemple
par la lecture de fichiers non compressés d'images issues du logiciel
Photoshop comme des fichiers audio. En efet, tout fichier numérique étant
composé de chifres binaires, ils peuvent tous être lus comme étant un son,
une image, une vidéo, un texte, rendant les possibilités de détournement
infinies. C'est en cela que le genre est abyssal. Et les compositeurs s'y
adonnant ne manquent ni d'idées, ni d'enthousiasme, pour tenter de
détourner l'univers numérique entier qui les entoure. Cependant, ce genre
reste qualifié d'expérimental et se trouve être en marge de la production
actuelle. Je pense néanmoins que c'est précisément cette esthétique, « the
aesthetics of failure » (l'esthétique de la défaillance) selon le musicien Kim
Cascone10, qui inspire aujourd'hui l'utilisation d'efets sur la voix, tels que le
vocoder ou l'autotune, traduisant ainsi la défaillance de l'interprète qu'il ne
peut plus exprimer lui-même. Il convient alors de s'intéresser aux méthodes
d'étude de la voix traitée pour étudier ce phénomène.
10 Kim Cascone, Ibid.
25
2) ANALYSER LA VOIX ET SES TRAITEMENTS
a – L'effet, renfort de la signification
Pour conclure son ouvrage La voix et la machine, Bruno Bossis explique
son intérêt pour la vocalité artificielle (le terme vocalité définissant un
phénomène sonore se rapprochant de la voix sans pour autant en être) par
le fait qu'elle est la seule des manifestations technologiques ancrée dans
l'intime. En efet, il met en avant l'idée que la voix, contrairement aux autres
instruments, implique toujours un locuteur et sa personnalité en plus d'être
vecteur de texte. D'ailleurs, il émet l'idée que le traitement musical de ce
texte est mis en abyme par le traitement de la voix. Ainsi, l'efet apposé à
celle-ci occuperait la fonction d'un méta-texte qui se déploie parallèlement
au sens porté par l'aspect traditionnel du chant tout en interagissant avec
lui. Il constitue de ce fait un nouveau niveau de lecture et d'écriture de la voix
chantée.
C'est une idée similaire que développe Pierre Couprie lorsqu'il cherche
à établir une grille d'analyse pour la voix dans la musique électroacoustique.
Il définit ainsi quatre angles d'analyse qui sont le texte (rythme, vitesse,
césures...), la morphologie (hauteur, spectre, texture...), la référence
(identification de l'âge et du sexe, identification de l'émotion) et les
transformations opérées sur le son11. Néanmoins, il introduit la notion de
distance par rapport à une source imaginaire qui s'applique à l'étude de ces
paramètres. Par exemple, on évaluerait la hauteur d'une mélodie à la fois de
11 Détails en Annexe 1 : Grille d'analyse de Pierre Couprie
26
manière absolue et relative, en la situant dans le spectre et en estimant
l'écart de sa transformation par rapport à la hauteur de la source non traitée
qu'on s'imagine. Dans la mesure où on identifie la présence d'un efet dans
le fait qu'il altère la voix, qu'il l'écarte de son apparence naturelle, les
arguments de Bruno Bossis et Pierre Couprie sont semblables, l'efet ajoute
dans les deux cas un niveau de lecture supplémentaire.
Cependant, lorsqu'on cherche à décrire la nature d'un efet et à
l'interpréter, les critères d'analyse des transformations de la voix de Pierre
Couprie ne me semblent pas tout à fait satisfaisants. Il en distingue cinq
catégories :
« 1) Les efets jouant sur la prolongation du son : les délais et réverbérations ;
2) Les efets jouant sur des transformations internes du spectre du son : les
filtres, etc. ;
3) Les efets modifiant la place du spectre dans la gamme générale des
fréquences : la transposition, les efets polyphoniques, etc. ;
4) Les efets modifiant l’enveloppe dynamique du son : gate, générateur
d’enveloppe, etc. ;
5) Les efets ajoutant au son un élément qui semble extérieur : modification
du grain, modulateurs, etc. »
Cette classification me semble réductrice car un efet peut tout à fait
agir sur plusieurs paramètres du son à la fois, il deviendra alors impossible
de le décrire entièrement en le rangeant dans une catégorie. Même
l'utilisation de la réverbération, bien qu'elle agisse avant tout sur la
prolongation du son, peut engendrer une modification de la perception du
spectre, mettant en avant certaines zones fréquentielles, ou sur la
27
dynamique en altérant l'extinction du son. En efet, cette grille se base sur
les qualifications intrinsèques des modifications plutôt que sur leur action
globale quant à la perception. Elle ne prend pas non plus en compte l'idée
de référence ou de citation dans l'utilisation d'un efet, ces deux idées
permettant de mettre en exergue l'utilisation d'un détournement. Ainsi cette
méthode d'analyse travaille plus sur la structure d'un morceau que sur sa
réception. Il me semble qu'elle permette principalement une interprétation
de la forme, moins du contenu sensible proposé par une œuvre.
Une autre grille d'analyse est celle de Cathryn Lane qui classe les
transformations vocales en dix-neuf types12. La voix traitée par un efet est
explicitée par le quatorzième exemple : « 14 - Excitation phonétique : la voix
est utilisée pour articuler d'autres sources de résonance, comme dans
l'espace architectural d’Alvin Lucier I Am Sitting in a Room (1970) ou comme
avec un synthétiseur du type Vocodeur. », les autres mettant plutôt en avant
des figures de style de montage sonore ou d'organisation sémantique. Cette
description fait référence uniquement au procédé, mais deux autres de ses
points d'analyse peuvent s'avérer eficace pour en étudier le sens:
« 1 - Dissolution de la sémantique par le biais de la transformation : la
sémantique d'un mot ou d’une expression est dissoute par un efet de
transformation comme la superposition, la réverbération écrasante ou écho
inversé, traitement spectral, etc. par exemple Steve Reich Come Out.
[…] 9 - Rétention des sens : les mots sont présentés tel qu’ils ont été
enregistrés, sans traitement. »
En efet, lorsqu'on augmente l'intensité d'un traitement au delà d'un
certain seuil, en plus d'altérer sa propension à être reconnue comme12 Détails en Annexe 2 : Grille d'analyse de Cathryn Lane
28
humaine, la voix perd son contenu sémantique tandis que l'efet prend un
nouveau sens. Il devient une texture sonore tout en imposant une césure
dans le récit, parfois un point final. Il peut par exemple traduire une émotion
que les mots ne sufisent plus à transmettre. Le point numéro neuf prend
tout son sens lorsque la voix naturelle apparaît dans un contexte dans lequel
elle aurait pu être traitée. L'idée de « rétention de sens » s'explique par la
perte d'un niveau de lecture de la voix, qui sera de ce fait plus forte si cette
apparition est précédée d'une voix traitée.
Ainsi, il pourra être possible d'utiliser ces grilles d'étude pour explorer
les efets appliqués à la voix, mais il me semble qu'il est important de
chercher aussi d'autres méthodes plus intuitives. Il n'est pas non plus fait
mention dans ces textes de la possibilité de se baser sur la culture de
l'auditeur pour faire passer des références dans l'efet. Par exemple, on peut
utiliser un procédé figuratif consistant à rappeler le son d'un récepteur
téléphonique, chose expérimentée dans le morceau Nightcall de Kavinsky,
dont le pseudo-vocodeur n'a pas qu'un sens unique. Aussi, le traitement
d'une voix peut rappeler celui d'un autre morceau préexistant, comme avec
le dernier album des Daf Punk, Random Access Memories, dans lequel
certains efets couplés avec des lignes mélodiques particulières
s'apparentent aux utilisations du vocodeur chez Herbie Hancock, donnant à
ces morceaux une touche très rétro sans pour autant tomber dans la
reproduction.
En outre, on retiendra que l'efet est un moyen de raconter et
d'exprimer en plus du texte chanté et je pense que cette expression est
29
d'autant plus eficace qu'elle s'adresse à l'afect. À ce propos, un des
concepts de la psychanalyse se prête particulièrement bien à expliquer le
trouble que peut transmettre la voix traitée.
b – L'inquiétante étrangeté de la voix traitée
À la lecture de VOICE, un livre rassemblant dix-neuf chapitres
indépendants chacun écrit par un auteur diférent sur un des aspect de la
voix au travers des arts et médias numériques, il est intéressant de constater
que le terme le plus employé pour décrire un décalage entre la réception
d'une voix enregistrée qui aurait été altérée et l'idée qu'on se fait de sa
véritable nature (reprenant l'idée de distance imaginaire à la source), est
celui de « uncanny ». Ce terme est la traduction du concept freudien de
l'inquiétante étrangeté (Das Unheimliche en allemand), hérité du
psychologue Ernst Jentsch qui l'étudie pour la première fois en 1906 et
décrit ce sentiment comme « celui où l’on doute qu’un être en apparence
animé ne soit vivant, et, inversement, qu’un objet sans vie ne soit en
quelque sorte animé 13». Sigmund Freud reprend ce concept en 1919 et
l'intègre à la théorie psychanalytique en le définissant comme le retour du
semblable, du familier ou bien du double, qui provoque l'angoisse par le
refoulement de cette image. Ainsi, ce malaise a lieu lorsqu'un objet du
quotidien, ou un sujet, ne répond plus à sa représentation rationnelle ou
n'est plus distingué comme tel. Freud prend pour exemple une anecdote où
étant dans un train de nuit, il aperçoit son reflet dans une vitre y voyant
13 Sigmund Freud, L'inquiétante étrangeté (Das Unheimliche), trad. Marie Bonaparte & Mme E. Marty, Paris, Gallimard, 1933. p.10.
30
d'abord une seconde personne se tenant en face de lui dont l'apparition lui
est désagréable. Ici, c'est bel et bien le double qui est refoulé. Dans le cas
d'une voix traitée par des efets, on peut analyser le sentiment d'inquiétante
étrangeté qu'elle dégage comme étant celui du reflet monstrueux d'une
image sonore familière. Notre connaissance de la voix humaine nous intime
de la (re-)connaître en tant que tel, bien qu'il nous est dificile de la ranger
aux côtés des voix que l'on connait le mieux, les voix rassurantes de nos
proches.
Au delà de ce point critique du traitement de la voix, on constate que,
dans le cas où la voix est plus abimée par l'efet ou qu'elle l'est moins, elle
serait dans les deux cas bien plus rassurante. À cet efet, Gérard Grisey
analysait le traitement des voix de sa pièce Les chants de l'Amour dans sa
note de programme en divisant ceux-ci en quatre catégories :
« L'intérêt de la voix synthétisée ne réside pas tant dans l'imitation de la voix
humaine que dans les infinies possibilités de déviations de ces voix. Nous y
découvrons plusieurs champs de perceptions et de réactions émotives liées
aux avatars de la voix humaine :
- voix chantée, bien imitée presque trop pure, sans défaut. « Quelle voix ! »,
- territoires mystérieux de la voix humaine mise dans des situations inouïes.
« Qu'est-il arrivé à cette voix ? »,
- zones inquiétantes de la voix « biologique ». Quelque chose ou quelqu'un
vit et respire pour produire ce son. « Quel est ce monstre ? »,
- zones rassurantes du son instrumental ou électronique. « Ah ! Il ne s'agit
que d'une machine...» 14».
Il distingue ainsi, entre la voix parfaitement pure et la voix évidemment
robotique deux niveaux, la « zone inquiétante de la voix biologique » qui14 Gérard Grisey, note de programme. Concert du 3 juin 1985.
31
s'apparente bien à l'inquiétante étrangeté et les « territoires mystérieux de la
voix humaine », plus modérés. Il semble que le niveau le plus inquiétant soit
celui qui fait ressortir l'organique, le vivant, d'un tapis électronique, inanimé,
tandis que le second décrit plutôt une altération légère, comme si l'atteinte
avait été portée à la bande enregistrée et non à la phonation directement.
On peut aussi penser à analyser la voix traitée sous l'angle de la
théorie de l' « Uncanny Valley » (Vallée dérangeante), émise par le roboticien
Masahiro Mori, qui s'apparente presque aux niveaux décrits précédemment.
Le scientifique y émet l'hypothèse que, passé un certain seuil, la
ressemblance d'un robot avec un être humain va se solder par un profond
sentiment de malaise pour l'observateur, d'autant plus si le robot est
animé15. Il trace ainsi une courbe du degré de familiarité d'un robot en
fonction de sa ressemblance avec un être humain. Il est ainsi intéressant
d'essayer d'étudier cette courbe en imaginant pour abscisse le degré
d'altération de la voix par un efet, avec les pourcentages en ordre
décroissant, pour en déceler les similarités et les diférences avec cette
théorie.
15 Mashiro Mori, « The uncanny valley » (la vallée de l'étrange), trad. K. F. MacDorman & T. Minatc, Energy vol .7, n°4, 1970, p.33-35.
32
Figure 1 : Représentation schématique de la vallée de l'étrange d'après Mashiro Mori
On peut séparer ce graphique en quatre zones par analogie avec
l'analyse de Gérard Grisey. Une première zone dans les plus faibles abscisses
du graphique s'apparente à l'aspect robotique d'un efet. La zone suivante
ressemble à l'idée de territoires mystérieux de la voix mais en mettant en
avant la notion de familiarité qu'ils procurent. En efet, ici le robot
s'apparente à l'humain tout en en étant facilement dissociable. À ce degré, la
voix serait donc évidemment traitée mais il serait aisé de s'imaginer la voix
originale derrière l'efet. Cela semble se référer par exemple à des situations
ou l'efet vient en soutien de la voix et est donc superposé à une voix non
traitée. La troisième zone serait la vallée dérangeante, provoquant le
sentiment d'inquiétante étrangeté décrit précédemment, correspondant aux
zones inquiétantes de la voix biologiques. Cependant, on peut aisément
imaginer que cet efet puisse aussi se produire lorsque la voix est très
dégradée, c'est la zone dont le placement sur le graphique semble
correspondre le moins dans cette analogie. La quatrième zone, celle au plus
33
Immobile
100%50%
Zombie
Main prosthétiqueCadavre
Apparence humaine
Robot industriel
Animal en peluche
Humain en bonne santé
vallée de l'étrange
Marionnette de bunraku
Robot humanoïde
Mobile
Deg
ré d
e fa
mili
arit
é
haut du graphique serait celle de la voix non traitée, ou très peu retouchée,
le quatrième niveau de Gérard Grisey semblant se situer au delà de cette
courbe lorsque la voix est magnifiée.
Par ailleurs, ce qui me paraît le plus intéressant dans cette analogie est
l'idée qu'à la gradation d'un efet, ou du pourcentage total auquel on
l'ajoute à la voix non traitée, on peut associer un degré de familiarité, de
confort, qui n'est pas linéaire. La vallée dérangeante ou sentiment
d'inquiétante étrangeté ne paraît pas pouvoir être placé à l'une des
extrémités du schéma, mais est susceptible d'apparaître dans une fenêtre de
valeurs des réglages, de taille incertaine. Je m'eforcerai ainsi au cours de
mes expérimentations d'identifier les cas où je m'y trouverai, ou du moins
l'approcherai, et d'exploiter ces zones et leurs limites car je crois qu'elles
sont des plus significatives tant le sentiment qu'elles engendrent est fort et
partagé. Efectivement, au delà du simple malaise, je pense qu'il est possible
de faire porter à ces traitements un sens supplémentaire, audible parce que
la gêne provoquée par le sentiment d'inquiétante étrangeté incite à l'écoute
attentive pour déterminer la provenance de la voix et donc l'intention du
locuteur. Finalement, cette utilisation de l'efet est un outil précieux car il est
plus dificile aujourd'hui de transmettre une émotion par le chant en
musique électronique.
34
c – « Le grain de la voix » et la recherche d'une approche
intuitive
Dans un article de la revue Musique en Jeu de 1972, Roland Barthes
développe son concept de « grain de la voix », qu'il traduit comme étant « le
corps dans la voix qui chante 16». Pour le définir, il transpose l'opposition
entre le phéno-texte et le géno-texte, concepts inventés par la philologue
Julia Kristeva, au chant. Le phéno-chant se définit alors comme ce qui relève
de la structure de la voix chantée, qui répond aux codes et aux usages d'une
époque. Il met en évidence ce concept par la dramatisation de scènes
d'opéra, surplus d'expressivité par rapport au texte, et l'exigence de
l'articulation, artifice ajouté à l'élocution usuelle d'une langue. À cela, il
oppose le géno-chant, « l'espace où les significations germent “du dedans de
la langue et dans sa matérialité même” 17», représentant le travail de la
diction de la langue au sein de la musique. Le grain de la voix réside dans cet
aspect du chant, résultant de la friction du timbre chanté et de langue elle-
même, et non du message. D'après lui, en évitant la redondance de la
signification par le phéno-chant, le géno-chant permet d'émouvoir en jetant
immédiatement le symbolique devant l'auditeur, sans médiation. Il prend
pour exemple la mort de Mélissandre dans le cinquième acte de l'opéra
Pelléas et Mélissandre de Claude Debussy qui se produit sans efusion
dramatique de sa part et qui émeut par sa sobriété. De ce fait, qualifier le
grain de la voix et la manière dont il nous apparaît ou non dans un morceau
semble être une méthode intéressante pour juger de la qualité de
l'interprétation d'une voix.
16 Roland Barthes, « Le Grain de la voix », Musique en Jeu, n°9, novembre 1972.17 Roland Barthes, Ibid.
35
Dans la musique actuelle et particulièrement dans la musique
électronique, beaucoup de modes d'expression de la voix ont été retirés à
l'interprétation du texte. En efet, on n'utilise que très peu la variété des
timbres que peut employer un chanteur ou une chanteuse, les limitant
souvent à un timbre unique. De plus, le maintien d'une valeur eficace du
signal élevé (aussi appelé couramment niveau moyen) requiert l'utilisation
de la compression et ne permet plus aux chanteurs et chanteuses de
compter sur la dynamique pour interpréter leur chant. Lorsqu'ils l'utilisent,
on n'en récupèrera qu'une variation de timbre, entre une voix plutôt
chuchotée comportant du soufle, et une voix forte plus pleine. Aussi, les
instruments électroniques ne subissant aucune variation de leur accordage
au cours d'un morceau, il est souvent nécessaire que la voix soit
extrêmement juste pour chanter avec eux. Il n'est alors pas rare de recourir à
un ajustage de la hauteur sur certaines notes, même pour de très bons
interprètes, pour qu'ils s'intègrent mieux à la composition. Ainsi, les
variations très légères de hauteur qui permettaient de colorer légèrement les
notes, en assombrissant le chant lorsque la hauteur chantée est légèrement
inférieure et en rendant une mélodie brillante à l'inverse, ne sont plus
utilisables non plus. En outre, la musique électronique actuelle étant
souvent très répétitive, la mélodie se retrouve fixée pour les couplets et
refrains et on ne peut plus la faire varier pour accompagner le texte, d'autant
plus qu'on répète souvent ce dernier car les paroles ne doivent pas
détourner l'attention pour la musique et son appel hypnotique à la danse.
Les voix en musique électronique sont donc généralement très lisses,
aspect renforcé par les techniques de mixage actuel. On va ainsi chercher à
36
éliminer tout ce qui pourrait gêner l'écoute à fort volume, efaçant la
sibilance grâce au de-esser et l'agressivité par série de filtres aux facteurs de
qualité élevés sur les zones fréquentielles proéminentes. On éradique ainsi
une partie du timbre, et même du grain, ce qui explique la ressemblance des
voix entre elles dans la production actuelle. D'après l'analyse de Roland
Barthes, on pourrait dire que la musique électronique a perdu en possibilités
expressives de phéno-chant, par la non-utilisation d'un large pan des
techniques vocales, mais aussi en géno-chant par le lissage du mixage.
De mon point de vue, il est possible de récupérer une partie de cette
expressivité vocale par l'usage d'efets. Comme ce qui a été montré
précédemment, les efets qui agissent sur la perception morphologique de la
voix engendrent de vives sensations. Je pense que ces traitements, étant
perçus en étroite corrélation avec le contenu du chant, ne se comportent pas
comme un niveau de signification supplémentaire indépendant mais bien
comme une nouvelle composante du grain de la voix. Cette notion a souvent
été employée pour décrire la fascination autour de l'apparition de ces efets,
Roland Barthes écrivant d'ailleurs que le grain est « le compte rendu
impossible d'une jouissance sonore individuelle que j'éprouve continûment
en écoutant chanter 18». Ces efets vont ainsi permettre une seconde écriture
de l'interprétation vocale tandis que celle-ci est en premier lieu
extrêmement contrainte. Ils vont écailler son vernis, recréer l'intonation qui
n'a pas pu être chantée, ou du moins la remplacer par un contenu sensible
similaire. De plus, je suis intimement convaincue que l'obtention de ces
efets par détournement ajoute au charme de ceux-ci, réveillant en nous un
esprit ludique, un amusement pour le mésusage des objets, comme l'est le18 Roland Barthes, Ibid.
37
plaisir d'écoute du glitch décrit précédemment. Je conçois que cette
exaltation ne touche que les initiés, passionnés d'informatique ou de
musique. En outre, certains musiciens et musiciennes adoptent une
esthétique leur permettant une plus grande liberté dans l'interprétation
vocale malgré les carcans apparents de la musique électronique.
38
3) INTRODUCTION DE LA VOIX DANS LA
MUSIQUE ÉLECTRONIQUE PAR L'USAGE
D'EFFETS
Dans ce chapitre, je décrirai plusieurs exemples d'utilisation de la voix
traitée par des efets dans la musique électronique qui me semblent
pertinents quant à l'idée du dépassement des contraintes esthétiques liées à
ce genre et qui m'inspirent dans la création de ma partie pratique de
mémoire. Aussi, je parlerai uniquement de morceaux dans lesquels la voix a
une place centrale dans la composition. Cette liste d'exemple n'est donc pas
exhaustive et je vais aussi me permettre de parler de morceaux qui touchent
aux limites de la musique électronique, notamment certains relevant du trip-
hop dans lesquels il n'y figure parfois quasiment que des instruments
acoustiques.
Les analyses que je réalise ici visent à disséquer les procédés sonores à
l'origine des sensations particulières que ces morceaux me procurent.
Néanmoins, il est très probable que le sens que je donne à ces efets de style
n'ait pas été théorisé par les compositeurs eux-même et que la réception des
morceaux soit diférente pour chaque auditeur. En efet, cherchant d'abord à
produire un plaisir esthétique, on choisit en général de garder dans une
composition ce qui “sonne” sans justification supplémentaire. Cependant, je
pense que l'appréciation esthétique que nous avons de certains morceaux
découle directement des émotions qu'ils nous évoquent et donc est
39
intimement liée à l'eficacité des procédés choisis visant communiquer les-
dits sentiments.
a – La représentation de l'humanoïde par l'autotune et le
vocodeur
Dans les cas ou les musiciens et musiciennes font usage d'efets pour
modifier leur voix, il est intéressant d'étudier les cas ou la transformation de
leur grain soutient le sens du texte ou un certain propos esthétique. Par
exemple, en France, la musicienne Marylou Mayniel alias OKLou se sert de
l'auto-tune à des fins plutôt singulières. À l'origine, l'auto-tune est un
programme inventé par un ancien ingénieur en sismologie en 1996, Andy
Hildebrand, qui permet d'analyser puis d'ajuster la hauteur d'une voix, note
par note et ce, a priori, de manière transparente. Ainsi, il est possible grâce à
cette technologie de sélectionner au cours d'un enregistrement la prise
vocale avec la plus belle intention même si la justesse n'en est pas parfaite.
Néanmoins, cet outil a beaucoup contribué à lisser la musique actuelle,
rendant chaque voix excessivement juste et empêchant de jouer légèrement
sur la hauteur pour ajouter de l'intention. Cependant, l'auto-tune a subi un
détournement majeur dans son utilisation à la fin des années quatre-vingt
dix. En amenant deux de ses paramètres en butée, il est possible de
dénaturer la voix et de faire de ce traitement un efet. Les paramètres à
modifier sont le temps d'attaque du traitement qui lorsqu'il est au plus bas
fait sauter la voix d'une hauteur à une autre et la variation de hauteur au
sein d'une note qui lorsqu'elle est au minimum, empêche la voix d'efectuer
40
son vibrato naturel. Le premier paramètre induisant les sautes de hauteur
donne un aspect qu'on pourrait qualifier de robotique et le second
paramètre est responsable de la coloration métallique souvent obtenue.
L'auto-tune a souvent été utilisé par les rappeurs pour chanter la
mélancolie, fragmentant leur voix à l'image de leurs émotions, faisant ainsi
évoluer l'univers du rap vers des contenus plus sensibles. Toutefois, cette
technique a rapidement été considérée comme un efet de mode, cet efet
apparaissant parfois systématiquement dans les production des musiciens.
Aussi, une partie du public se mit à faire l’amalgame entre l'utilisation de
l'auto-tune pour réajuster les voix des chanteurs peu précis et son utilisation
en tant qu'efet, ne réalisant pas toujours qu'il est possible de rendre ce
traitement transparent. L'auto-tune devint alors le bouc-émissaire de la
musique actuelle, se trouvant majoritairement cantonné au rap, et dont les
musiciens semblent craindre l'utilisation de peur de s'attirer des critiques.
OKLou fait partie de la jeune génération de musiciens indépendants
qui commencent à réintégrer cet efet dans leurs productions faisant fit de sa
mauvaise réputation. Dans sa musique, l'auto-tune appliqué à sa voix
rappelle certes des sonorités R'n'B19, mais il renforce surtout l'aspect
onirique de ses compositions. Couplés à d'autres efets comme des
réverbérations, des altérations de hauteur (pitch en anglais) et des délais, la
voix flotte, vacille et paraît incroyablement douce malgré son aspect post-
humain. En efet, la voix est altérée, mais il en résulte un son plus juste, dont
19 Le R'n'b est un genre musical né dans les années quatre-vingt qui mélange des éléments de rythm and blues, hip-hop, soul, pop et musique électronique. C'est souvent ce vers quoi tendent les rappeurs en utilisant des parties traitées par l'auto-tune
41
l'attaque est plus rapide et qui ne subit pas de vibrato involontaire, donc au-
delà des possibilités de la voix humaine naturelle. Et pourtant, malgré le
lissage opéré par ce traitement et le fait qu'il masque la performance vocale
naturelle, l'efet charge sa voix d'afect, la transformant en l'expression d'un
être humanoïde bienveillant. OKLou dira d'ailleurs très justement à propos
de l'auto-tune : « On ne parle plus de “performance” vocale, on est moins
attaché qu’avant à l’authenticité du timbre, au rapport “vrai” à la voix. Je
pense que c’est une bonne chose, ça veut dire que les gens ont compris que
la qualité d’un morceau n’est pas dans la performance mais dans la sincérité
de la démarche, quelle qu’elle soit 20».
Le second efet appliqué à la voix à avoir irrigué la production
musicale électronique est le vocodeur. Il est apparu dans la musique dans
les années soixante-dix mais son principe est inventé en 1930 par l'ingénieur
Homer Dudley des laboratoires de téléphonie Bell. Il consiste en l'analyse de
la voix grâce à un filtrage multi-bande recouvrant le spectre, ce qui permet
d'en extraire le profil dynamique en chacune de ces bandes, puis en
l'application de ces profils à chacune des bandes spectrales
correspondantes d'un son synthétisé.
20 Citation extraite de l'article « le jour où un sismologue a inventé l'Auto-Tune », par Simon Clair, sur Greenroom.fr. (26/04/16)
42
Figure 2: schéma synoptique d'un vocodeurEn haut à gauche : Entrée pour la voix.
En bas à gauche : Entrée pour le synthétiseur (“la porteuse”).Ainsi, les VCA (Voltage Control Amplifier, Amplificateur contrôlé en tension en français) sontalimentés par les différentes bandes filtrées du synthétiseur et contrôlés par le niveau desdifférentes bandes filtrées de la voix. Le spectre obtenu est ensuite reconstruit en sortie (à
droite).
Cette invention avait pour but de limiter la bande passante nécessaire
pour la téléphonie en conservant l'intelligibilité de la voix. En efet, le
principe d''émission de la voix repose sur le filtrage du son des cordes
vocales par les cavités buccales, nasales et le larynx. Ainsi, le vocodeur prend
une sorte d'empreinte de ces filtres résonnants (en conservant une courbe
de l'évolution de la dynamique dans chacune des bandes du spectre) et il est
possible de transmettre uniquement cette empreinte, notamment via un
câble téléphonique, pour synthétiser une imitation de cette voix en
remplaçant le son originel des cordes vocales par un autre signal à la
réception. Néanmoins, malgré son utilisation par les américains durant la
seconde guerre mondiale, ce procédé ne fut pas plus développé dans la
téléphonie car la voix qui en résulte est très déformée et peu agréable pour
des conversations personnelles. Ainsi, cette invention a été détournée à des
fins artistiques.
43
Après ses toutes premières applications par Krafwerk et Wendy Carlos
dans les années soixante-dix, le vocodeur est souvent utilisé pour
caractériser la voix d'un robot. Cette manière d'utiliser le vocodeur
déshumanise fortement la voix, on n'entend plus un humain mais une
machine qui parle, chose que définissait Gérard Grisey comme les « zones
rassurantes du son instrumental ou électronique 21». On retrouve par
exemple cet usage dans la discographie des Daf Punk dans des titres
comme Harder, Better, Faster, Stronger produit en 2001 dans lequel un robot,
ou du moins une intelligence artificielle semble échapper à sa
programmation initiale en demandant aux humains de travailler plus pour la
rendre plus forte. Néanmoins, je pense qu'il n'est pas très pertinent d'étudier
cette utilisation particulière du vocodeur sous le spectre de notions telles
que l'inquiétante étrangeté ou le grain de la voix, ces compositions jouant
plus avec la notion de référence (notamment cinématographique) et
d'utilisation ludique des machines. Une utilisation de cet efet se
rapprochant mieux de ces concepts est ce qu'en fait Laurie Anderson dans
son morceau O Superman sorti en 1982. Ici, sa voix traitée est ajoutée à sa
voix naturelle. Le synthétiseur modulé par le vocodeur joue des accords, elle
donne ainsi l'impression de dédoubler sa voix par ce procédé. Le texte, un
poème halluciné inspiré par la crise des otages américains d'Iran et
notamment par l'accident d'hélicoptère lors de la mission d'extraction des
otages22, est un dialogue raconté par l'un de ses deux protagonistes. Le
second personnage se présente comme la mère du premier mais il semble,
notamment grâce aux derniers vers, qu'il s'agisse d'une personnification des
États-Unis, représentés comme la mère patrie. Le dédoublement de la voix
21 Gérard Grisey, Ibid.22 Paroles et traduction du morceau O Superman en Annexe 3
44
de Laurie Anderson par les harmonies du clavier et l'altération étrange de
son grain lui font ainsi incarner cette entité supérieure, mi-inquiétante et mi-
rassurante. En efet, le timbre de sa voix étant très abimé et en plus mise en
avant par l'instrumentation minimaliste provoque un sentiment
d'inquiétante étrangeté mais dans le même temps l'harmonie du morceau
est simple et répétitive, la mélodie vocale est constante et la chanteuse
raconte les vers d'une voix douce. On peut ainsi rapprocher cette
interprétation de Laurie Anderson à la production musicale d'OKLou car elle
est tout autant onirique, néanmoins elle y introduit une composante
dérangeante par l'altération plus violente de sa voix. Cet ajout de matière à
la voix, voire à la représentation qu'on se fait du corps de la chanteuse et
l'antinomie des sensations proposées me captive.
b – L'expression des sentiments par l'usage de l'effet
L'utilisation du vocodeur qui m'inspire le plus est celle du musicien
Kavinsky, alias Vincent Belorgey, qui maitrise parfaitement ce procédé dans
son morceau Nightcall sorti en 2010. Sur ce titre figure un chanteur dont la
voix est traitée à l'aide d'un vocodeur et la chanteuse Lovefoxx, qui semble
subir bien moins de traitements en comparaison. Sa voix est magnifiée, mise
en avant, lissée par le mixage, un léger délai et le fait qu'elle soit doublée et
en stéréo lui donne un aspect éthéré. Au contraire, la seconde voix est très
sévèrement abimée, on y entend beaucoup de bruit, il est très dificile de se
représenter l'interprète. Elle est en mono et n'est pas réverbérée ni délayée
ce qui met fortement en avant son timbre, et donc son grain. Cette
45
opposition entre voix “claire” et voix traitée peut être analysée par la grille
de Cathryn Lane comme opérant une rétention de sens, on remarque en
efet que la voix claire semble bien moins expressive que celle traitée. Ainsi,
en mettant en regard ces diférences avec le texte, on assiste à l'échange
entre un homme déchiré, fragmenté, comme le suggère le traitement de sa
voix et une femme plus calme. Kavinsky touche ici au sommet de
l'inquiétante étrangeté, la voix du chanteur provoque l'angoisse mais le
rythme lent du morceau et la voix rassurante de la chanteuse pousse
l'auditeur à s'interroger sur son état plutôt qu'à prendre peur. De plus, il est
intéressant de voir que le ton presque érotique de la chanteuse (renforcé par
le mixage qui l'a adouci) qui est régulièrement employé dans la musique
actuelle pour attirer l'attention de l'auditeur est ici tout à fait justifié par le
texte. En efet, celui-ci relate l'échange de deux interlocuteurs qui,
s'appelant dans la nuit comme le titre l'indique, sont attirés l'un par l'autre
mais ne se le disent jamais explicitement23. D'ailleurs, l'appel téléphonique
signifié dès la première phrase du texte légitime d'emblée le vocodeur qui
imite donc la mauvaise qualité de la réception, on sait par cela que notre
point d'écoute se situe du coté de la femme.
Ainsi en quatre minutes de musique et à peine six phrases prononcées,
étant répétées en boucle, c'est toute une scène de cinéma que Kavinsky met
en place. On y voit une femme au téléphone, un homme semblant porter en
lui beaucoup de soufrance à l'appareil, qui lui propose de l'emmener en
voiture et même, métaphoriquement, de se livrer à elle par la phrase « I’m
gonna show you where it's dark, but have no fear. » (Je vais te montrer où il
fait sombre, mais n'aie pas peur). Elle, sans accepter sa demande, lui fait23 Paroles et traduction du morceau Nightcall en Annexe 4
46
comprendre que quelque chose en lui l'intéresse : « There's something inside
you, it's hard to explain » (il y a quelque chose en toi, c'est dificile à
expliquer), et le rassure sur le fait qu'elle ne se fie pas aux rumeurs qui
courent sur lui. En quelques lignes et un efet, tout est dit. Le vocodeur
renforce ici l'aspect cinématographique par la référence au téléphone mais
traduit aussi les émotions de l'homme, émotions qu'il n'aurait pas pu jouer
dans ce morceau comme on le ferait dans un film. Cette capacité du
musicien à mettre tous les éléments au service de la signification sans que
cela ne soit évident de prime abord me fascine. En outre, j'apprécie
beaucoup cet efet d'alternance entre les deux voix qui berce l'écoute et la
concision de son propos.
Enfin, une dernière de mes inspirations en matière d'efet appliqué à la
voix est le morceau Deer Stop, tiré de l'album Felt Montain de Goldfrapp sorti
en 2000. La chanteuse Alison Goldfrapp délivre dans cet opus une
interprétation du chant très personnelle. La plupart des mélodies sont
graves, on sent qu'elle arrive parfois au plus bas de sa tessiture et elle chante
souvent à un niveau très faible laissant passer beaucoup de soufle, des
siflantes fortes et des bruits de bouches qui ne sont volontairement pas
nettoyés des bandes enregistrées. Aussi, elle ne se refuse pas d'utiliser une
large variété de timbres et même de prononciations, pouvant donner un
aspect maniéré à son élocution. Elle se place ainsi à l'opposé de ce qu'on
attend généralement en musique électronique en terme de traitement vocal,
c'est-à-dire des voix claires, lumineuses, lisses, énergiques et à l'élocution
stable et articulée. De plus, l'instrumentation de ce premier album est peu
fournie en instruments électroniques, il s'apparente alors plus à du trip-hop.
47
Ce genre musical est né au début des années quatre-vingt-dix en
Angleterre et désignait à l'origine les morceaux aux penchants
expérimentaux mélangeant hip-hop et musique électronique, mais il s'est
rapidement élargi pour contenir des éléments musicaux empruntés à des
styles très variés. On y trouve généralement une rythmique lente proche du
style hip-hop, une basse sourde et proéminente, des éléments mélodiques
samplés (c'est-à-dire extraits d'autres enregistrements), une ambiance dite
“planante24 ”, mélancolique et désenchantée, mais tous ces constituants n'y
sont pas toujours présents. D'ailleurs, le trip-hop emploie souvent des codes
issus du glitch, notamment dans la dégradation des textures sonores
utilisées.
S'inspirant du trip-hop, c'est surtout son atmosphère particulière que
Goldfrapp retranscrit dans cet album, l'interprétation vocale originale
venant au renfort des instrumentations instables et hétéroclites dans
l'expression de ce désarroi. Il y a alors plus qu'uniquement la voix qui
transmet ce sentiment d'inquiétante étrangeté, mais c'est toute la matière
sonore qui s'y consacre. De plus, le mixage de cet album s'écarte aussi de la
norme puisque c'est une approche globale qui y est mise en œuvre, en dépit
du traditionnel traitement analytique opéré dans la musique actuelle. Ainsi,
les timbres des instruments se mélangent, se masquent, et ces phénomènes
sont encouragés au mixage, notamment par l'ajout de longues
réverbérations. Ils sont donc moins bien discernables et reconnaissables, ce
qui accompagne un peu plus l'ambiance profondément étrange de cet
24 Il est dificile de trouver un synonyme approprié à ce terme du langage familier. Le Centre National des Ressources Textuelles et Littéraires le définit par : « Qui fait plaisir et fait perdre le contact avec la réalité ».
48
album.
L'étrange résultat sonore obtenu sur Deer Stop, l'une des seules
chanson de l'album sur lesquelles la voix est transformée, semble être issu
de l'utilisation de plusieurs efets simultanés mais variant au cours du
morceau. Il me paraît y entendre un filtre passe bande dont la largeur et la
fréquence centrale varient au cours du temps, une réverbération à ressort
qui colore certains mots, faisant apparaître à un moment des bandes de
fréquences aiguës peu naturelles, un filtre notch à gain positif (filtre en
cloche au facteur de qualité très faible, en français) oscillant entre plusieurs
fréquences notamment à la fin du morceau et peut-être même un bitcrusher
(réducteur de résolution du signal), mais je n'en suis pas sûre car les
artefacts qui y font penser pourraient tout aussi bien avoir été créés par les
autres efets et l'intonation hésitante d'Alison Goldfrapp. Étant à la limite du
chuchotement, la chanteuse laisse passer beaucoup de soufle dans sa voix
ce qui, en remplissant le spectre de bruit, permet aux efets d'être fortement
sollicités et donc de rendre leurs variations bien audibles. C'est une idée
intéressante que je retiens pour ma partie pratique de mémoire puisque,
comme je l'expliquerai par la suite, les traitements d'Izotope RX semblent
créer plus d'artefacts lorsque le signal qu'ils reçoivent est fréquentiellement
plus riche.
Comme dans ses autres titres dans lesquels sa voix n'est pas traitée,
Alison Goldfrapp conserve aussi ses bruits de bouche qui, loin d'être
indésirables dans ce cas, aident à la conservation de l'aspect humain de sa
voix dans la première partie du morceau. Ils lui donnent une apparence
49
faillible mais apportent aussi une sensation de vrai, de naturel, malgré
l'efet. Quant à lui, il renforce l'aspect susurré du texte en mettant
successivement en évidence certaines zones fréquentielles du soufle de la
chanteuse. La voix se fait ainsi très intime et touchante, Goldfrapp évoquant
possiblement un rapport sexuel25. D'ailleurs, le filtre qui réduit la bande
passante de sa voix peut donner l'impression qu'elle murmure son texte en
collant sa bouche contre une matière absorbante, suggérant alors qu'elle
récite ces vers contre le corps de son amant ou amante. Dans la seconde
partie du morceau, les efets se font plus prononcés et le texte devient de
moins en moins compréhensible, il se forme alors une dissolution
sémantique selon le terme de Cathryn Lane. La voix n'est plus que
complainte, désordre de mots mal articulés pendant l'acte, impression
renforcée par l'étrange élocution de la chanteuse. L'efet fonctionne donc ici
plutôt par la référence, en évoquant une transformation connue du spectre
de la voix, mais aussi par métaphore en altérant la voix jusqu'à
l'anéantissement de son intelligibilité comme pour signifier la dissolution
des pensées de la chanteuse dans l'instant présent.
Si Alison Goldfrapp se permet autant de liberté dans l'interprétation et
le traitement de sa voix, c'est parce que les choix esthétiques engagés par le
reste de la musique sont tellement forts qu'elle n'a plus à se plier aux
carcans de la production actuelle de l'époque. Ainsi, ses possibilités
d'expression sont enrichies par ses manières relevant du phéno-chant et son
atypique grain de voix et plus encore renforcées par le choix de l'efet. Bien
que la première sensation que procure ces morceaux soient celle de
l'inquiétante étrangeté, la voix va au delà de la simple description de ce25 Paroles et traduction du morceau Deer Stop en Annexe 5
50
malaise et trouve les mots, ou du moins le langage, pour décrire les subtilités
de l'atmosphère désenchantée du trip-hop. D'ailleurs, dans les albums plus
conventionnels que sortiront Goldfrapp dans les années suivantes, le
placement et le traitement de sa voix sont bien plus convenus, il y paraît en
efet dificile de conserver la même interprétation vocale alors que
l'instrumentation est bien plus entêtante et lumineuse.
En conclusion, que l'utilisation de l'efet soit occasionnel ou
systématique chez les musiciens et musiciennes (par exemple pour OKLou),
il permet d'ajouter du sens ou de le renforcer au sein de la composition.
Cette opération se produit par la transformation de l'image qu'on se fait de
l'interprète, soit en modifiant la perception de son physique comme pour
OKLou et Laurie Anderson qui deviennent des figures post-humaines ou sur-
humaines, soit en donnant des indices sur son état mental ou bien en
ajoutant un contexte à la situation comme le font Kavinsky et Goldfrapp.
Pour la composition de ma partie pratique de mémoire, je me focaliserai sur
ce deuxième aspect car je cherche à ajouter de l'intention à l'interprétation
vocale par l'efet. En outre, les voix transformées par des efets, par leur
aspect synthétique, semblent pouvoir s'intégrer plus facilement aux
compositions musicales.
51
II. PROPOSITION D'UN NOUVEL
EFFET APPLIQUÉ À LA VOIX
OBTENU PAR DÉTOURNEMENT
52
1) LES PRÉMICES DE LA CRÉATION
J'ai choisi d'utiliser la suite de modules d'extension Izotope RX pour la
détourner dans une composition musicale pour plusieurs raisons. Tout
d'abord, je voulais maximiser mes chances d'obtenir au moins une nouvelle
texture intéressante, je souhaitais donc étudier un ensemble contenant
plusieurs plug-ins (en français, modules d'extension). Cette suite a attiré
mon attention lorsque j'ai eu à en user dans des cadres conventionnels pour
du cinéma ou de la restauration d'enregistrements sonores. J'ai trouvé que
les artéfacts que ces outils produisaient étaient très surprenants et ils ne me
rappelaient rien de connu. J'ai donc voulu poussé l'expérience plus loin en
les transformant en efets, d'autant plus que l'entreprise qui commercialise
ce produit reste très discrète sur le fonctionnement de ces algorithmes. Ainsi,
je ne peux pas deviner les failles de ces traitements à l'avance, ni savoir
exactement ce que l'exagération d'un certain paramètre va engendrer quant
aux artéfacts, ce qui rend cette expérience très ludique.
a – Présentation de la suite Izotope RX
Izotope RX est un logiciel permettant principalement le nettoyage de
prises de son et la restauration d'enregistrements abîmés. Il fonctionne
d'une part en stand alone, c'est-à-dire comme un logiciel indépendant mais
propose aussi une suite de plug-ins qui permet l'utilisation de certaines de
ses fonctions au sein de stations de travail audionumériques. Dans son
fonctionnement autonome, la fenêtre principale permet de visualiser la
53
forme d'onde du signal mais aussi son spectrogramme, c'est à dire la
représentation des fréquences contenues dans le spectre, dont le niveau est
représenté par un barème de couleurs, en fonction du temps. En efet, bon
nombre de ses fonctions agissent directement sur cette représentation
graphique. Par exemple, il est possible de sélectionner une zone spectro-
temporelle du spectrogramme et de la supprimer, retirant ainsi une certaine
partie du spectre du son pendant un temps donné. On peut ensuite venir
reconstruire ces zones par interpolation avec ce qui se trouve autour grâce à
la fonction Spectral Repair, ce qui peut servir à enlever des bruits
indésirables localisés en fréquence et en durée. Une autre fonction
accessible uniquement en stand alone est le Deconstruct qui analyse le
signal et sépare ses composantes tonales du bruit, sans juger du niveau de
ces deux constituants. Il est ainsi possible d'ajuster indépendamment leur
gain. Cet outil permet notamment de diminuer le niveau d'un bruit très fort
par rapport au signal utile, ou à l'inverse d'en ajouter, comme par exemple
pour augmenter le soufle dans l'enregistrement d'une flûte26 .
Izotope RX propose aussi une fonction Connect (disponible à partir de
la version cinq du logiciel), qui permet d'utiliser l'entièreté du logiciel
Izotope RX comme n'étant qu'un plug-in dans une station audionumérique
de travail, rendant ainsi les outils précédent accessibles rapidement dans le
cadre de la production musicale que je m’apprête à efectuer. Néanmoins,
dans le cadre de ce mémoire, je ne me servirai pas de cette connexion
possible et me focaliserai sur les modules plus simples proposés par Izotope
RX. En efet, malgré l'immense potentiel créatif des fonctions telles que le
Spectral Repair ou la suppression de zones au sein d'un spectrogramme qui26 Exemple donné dans le manuel d'Izotope RX 5, p.128.
54
ne sont pas accessibles par simples modules, l'action de ces deux
programmes dépend en premier lieu de la découpe à la main de zones du
spectrogramme à traiter, les possibilités de création sont alors au moins
aussi nombreuses qu'il y a de manières de découper le spectrogramme, soit
quasi infinies. Cette méthode d'utilisation d'Izotope RX à des fins créatives
mérite une étude à part entière, je ne pourrai donc pas traiter ces
problématiques ici.
Travaillant avec les versions quatre et cinq de ce logiciel, il me reste
huit plug-ins à explorer pour la création dont je vais d'abord décrire le
fonctionnement.
Le Dialogue De-noise sert à à atténuer le bruit de fond de prises de son,
particulièrement lorsqu'elles comportent de la voix, et fonctionne comme un
expander-gate27 multibande. Ainsi, lorsque le niveau d'une des bandes de
fréquence du signal passe en dessous du seuil donné, celle-ci est très
fortement atténuée, voire coupée. On peut ainsi régler son seuil, le niveau
maximal qu'il va retirer au signal par bande de fréquences, ajustable en
fonction des zones du spectre grâce à la courbe de réduction. Il comporte
aussi une fonction « Learn (Apprendre) » qui lui permet d'adapter son
traitement par rapport au bruit du signal entrant.
Le De-noise est le module qui contient le plus grand nombre de
paramètres, je ne parlerai donc que des principaux, qui sont d'ailleurs ceux
qui ont été cruciaux pour l'obtention de l'efet. Ce plug-in permet
normalement de détecter le contenu spectral du bruit résiduel d'un27 « Expander » et « Gate » sont deux mots que la littérature spécialisée ne traduit pas.
55
enregistrement et de le retirer à celui-ci. Contrairement au Dialogue De-
noise, il agit donc à la fois spectralement et dynamiquement car il est
nécessaire que le bruit dépasse un certain seuil pour être efacé (ce qui n'est
pas le cas pour la fonction Deconstruct). Tout comme le plug-in précédent, il
possède une fonction « Learn », un réglage de la réduction et du seuil, mais
aussi une sélection de l'algorithme (du plus rapide au plus précis) et un choix
dans la nature des artéfacts, qu'ils soient plutôt fréquentiels ou dynamiques.
Le curseur du seuil a une fonction un peu diférente car il permet de jauger
l'amplitude entre le seuil de détection du bruit et celui du signal utile, le
niveau d'entrée jouant alors un rôle complémentaire. Il semble que lorsque
certaines zones du spectre dépassent le seuil du signal utile, elle ne sont plus
traitées par l'algorithme, de même lorsqu'elles se trouvent sous le seuil de
détection du bruit, étant alors considérées comme du bruit résiduel à
conserver28. On peut moduler la niveau de la réduction du bruit en fonction
du spectre en dessinant sur celui-ci une courbe de réduction. Dans les
réglages avancés, la taille de la FFT (transformée de Fourrier rapide) tient
aussi un rôle important. Avec une FFT très courte, soit six millisecondes au
minimum, la discrimination fréquentielle est très limitée alors qu'une FFT
plus longue compense ce problème mais demande des temps de calcul plus
long et discrimine moins bien l'aspect temporel du signal. De plus le De-
noise possède une fonction qui va m'être très utile, le “Output Noise Only
(Ne faire sortir que le bruit)” qui, comme son nom l'indique, permet de28 D'après le manuel d'utilisation du logiciel Izotope RX 5, p.109 : « Threshold : controls the amplitude separation of noise and useful signal levels. Higher threshold settings reduce more noise, but also suppress low-level signal components. Lower threshold preserves low-level signal details, but can result in noise being modulated by the signal. »(Seuil : contrôle l'amplitude de la séparation entre le bruit et le niveau de signal utile. De hautes valeurs du seuil réduisent plus de bruit, mais suppriment aussi les composantes à bas niveau du signal. De faibles valeurs de seuil préservent les composantes à bas niveau du signal, mais peuvent résulter en la conservation du bruit dans ce dernier.)
56
n'écouter que ce que l'algorithme retire au signal, ce qui normalement sert à
vérifier que l'on n'enlève pas trop de signal utile par ce traitement.
La fonction De-click analyse les irrégularités d'amplitude du signal et
les atténue. Elle traite ainsi les clics numériques mais aussi les interférences
téléphoniques, les bruits de bouche, ou par exemple le bruit de défilement
des perforations de bande optique. Ses paramètres principaux sont le choix
de l'algorithme de détection (simple et à bande unique, multibande pour
des clics périodiques et multibande pour des clics aléatoires), la sensibilité
dans la détection de l'amplitude des clics (sensitivity), la longueur
temporelle de la région autour du clic détecté à atténuer (click widening) et
le biais fréquentiel pour la détection (frequency skew). Pour ce dernier
paramètre, lorsque ce bais tend par exemple vers le haut du spectre, le
module aura une sensibilité plus élevée aux clics qui contiennent beaucoup
de fréquences aiguës, et inversement. Le réglage du type de clic n'est
finalement qu'un préréglage puisqu'il dépend des autres paramètres. En
outre, le De-click possède aussi une fonction “Output Clicks Only”. La
fonction du De-crackle est similaire. Il est décrit comme servant à retirer des
« clics proches les uns des autres et souvent plus faibles en volume [que les
autres clics] qui sont décrits subjectivement comme des crépitements »29. Il
possède les mêmes réglages de sensibilité de détection, de biais fréquentiel
pour celle-ci et la possibilité de ne récupérer que les “crackles”, mais le choix
de son algorithme se limite à un réglage de qualité de celui-ci.
29 « When an audio signal contains many clicks close together, ofen lower in volume, this is described subjectively as crackle. » D'après le manuel d'utilisation du logiciel Izotope RX5.
57
Le module Ambiance Match permet, en analysant un extrait d'une prise
de son, de prendre une empreinte de son bruit de fond, et de l'appliquer à un
autre enregistrement pour faire coïncider leur raccord, ou même d'en faire
un fichier sonore à part entière permettant d'imiter un silence raccord qu'on
n'aurait pas pu faire en tournage. Ce plug-in ne propose pas vraiment de
réglage, si ce n'est le choix de l'extrait à analyser.
Le De-hum est un filtre composé de plusieurs coupe-bandes au facteur
de qualité très élevé qui permettent ainsi de retirer chirurgicalement le buzz
(ou ronflement en français) créé par l'alimentation électrique et ses
harmoniques. Ses réglages permettent simplement de contrôler les
paramètres du filtrage, c'est donc un traitement plutôt trivial qui n'opère pas
d'autre transformation sur le son.
Le programme De-reverb, comme son nom l'indique, retire la
réverbération des prises de son, tant les premières réflexions que les queues
de réverbération, grâce à un système qui agit à la fois sur le plan dynamique
(comme une gate) et fréquentiel. Il possède une fonction “Learn”, un
paramètre de réduction, un contrôle du lissage des artéfacts, puis un réglage
du profil de la réverbération en prenant en compte sa longueur et son allure
spectrale.
Enfin, le De-clip élimine la saturation d'un signal en interpolant sa
forme d'onde pour recréer ses courbes. Il l'évalue en étudiant l'énergie des
échantillons sonores, ainsi lorsqu'on observe un répartition irrégulière de
ces derniers et qu'ils se concentrent dans les niveaux les plus forts, cela
58
signifie généralement que le signal a subi une saturation. On peut alors
régler le seuil de détection de celle-ci et la qualité de l'interpolation
réparatrice.
b – Essais pour l'obtention de nouvelles textures avec la suite
Izotope RX
Je vais procéder par élimination pour ne conserver que les traitements
qui, d'après moi, produisent un efet intéressant. Je peux donc tout d'abord
rayer de cette liste le Dialogue De-noise car toutes mes tentatives pour
abîmer le son en poussant ses paramètres en butée se sont révélées
infructueuses. Étonnamment, ce traitement ne provoque quasiment pas
d'artéfacts. De plus il n'est pas possible d'en récupérer uniquement la partie
soustraite au signal, qui aurait peut-être pu donner une texture intéressante.
De toute façon, même en efectuant cette fonction manuellement en
additionnant l'enregistrement et sa version traitée en hors phase, je
n'obtiens pas d'artéfacts. Je retire aussi d'emblée à cette liste le De-hum car
ce traitement n'est finalement qu'un filtrage, la transformation du son qu'on
obtient est donc plutôt reconnaissable et peu novatrice.
Le résidu obtenu avec le module De-crackle en enclenchant l'option
“Output Crackles Only” est très dificilement utilisable. Son énergie est
surtout contenue dans le haut et très haut du spectre, les graves et médiums
y étant très peu représentés. La voix n'y est quasiment plus reconnaissable,
même en utilisant les paramètres qui provoquent la plus forte dégradation
59
du son, et donnent donc le résidu le plus fourni. On en obtient surtout les
bruits de bouches, claquements de la langue et des lèvres, et une partie des
consonnes dévoisées30. Ainsi, si on cherche à ajouter ce son transformé à la
voix naturelle, pour obtenir un efet tout en conservant la compréhension, il
en résulte surtout une élocution dont tous les bruits buccaux auraient été
amplifiés et contenant beaucoup de fréquences très aiguës, ce qui est
finalement très désagréable à écouter. Même en filtrant drastiquement ce
signal transformé à l'aide d'un filtre passe-bas, il n'en demeure, d'après moi,
pas plus utilisable. Je retire donc aussi ce plug-in de la liste des efets à
explorer.
Je commence à porter plus d'intérêt à la fonction Ambiance Match.
Cependant, ce module étant très eficace, dès que je lui propose de détecter
un bruit de fond, ne serait-ce qu'à partir de quelques syllabes chantées, j'en
obtiens de manière très réaliste l'ambiance de la salle dans laquelle j'ai
enregistré. Pour tromper le logiciel et le forcer à faire des erreurs, je lui mets
en entrée l'extrait sonore le plus court possible, ne comportant qu'un bout
de voyelle. En efet, dès qu'une consonne est détectée, Ambiance Match
comprend que la voyelle suivante que je cherche à lui faire reproduire n'est
pas un dénominateur commun sur tout l'extrait, elle n'est donc pas détectée
comme étant un bruit de fond. En prenant toutes ces précautions, le résultat
est très intéressant. La voyelle est comme figée par la reproduction, tout
comme la hauteur à laquelle elle est chantée, et ce sur la durée souhaitée
puisque “l'ambiance” recréée doit pouvoir se prolonger à l'infini.
Néanmoins, on ne peut pas conserver l'élocution par cet efet et donc lui
30 C'est-à-dire qui n'impliquent pas l'utilisation des cordes vocales pour leur prononciation mais uniquement du soufle. Cela explique pourquoi le résidu obtenu contient très peu de graves et beaucoup de sibilance.
60
faire porter un texte entier, il ne pourrait qu'être présent en renfort, destiné à
ajouter de nouvelles textures en parallèle du texte et ne pouvant donc pas
être une des composantes du grain de la voix. Aussi, la texture obtenue est
très proche de ce que peut donner un plug-in comme Freeze de la suite des
GRM Tools, qui efectue d'emblée cette manœuvre de détournement car il
sufit d'appuyer sur le bouton “Freeze” pour figer la voyelle en direct. Ce
mésusage de l'Ambiance Match n'est donc pas tout à fait novateur.
Pour ce qui est du programme De-reverb, lorsqu'on pousse ses
paramètres à fond, on obtient surtout des artéfacts dynamiques : on a
l'impression de faire pomper un compresseur. Néanmoins, avec la fonction
“Output Reverb Only” il en résulte une matière plus originale. Sur la voix,
l'altération fréquentielle va retirer en priorité dans le spectre les zones
fréquentielles aux faibles niveaux, qui serait plus probablement issus de la
réverbération que du son direct. Sur le spectre résiduel obtenu, il manque
alors de temps en temps certaines harmoniques de la voix (car trop
proéminentes pour avoir été considérées comme de la réverbération) et
certaines zones fréquentielles formantiques. Ainsi, c'est la prononciation et
le timbre de la voix qui sont altérés, on touche ici à une transformation
significative du grain de la voix. Cependant, cette transformation reste assez
légère et le point négatif de ce traitement est le fait que les attaques des
notes ne peuvent jamais être considérées comme de la réverbération, il
manque donc tous les débuts des mots lorsqu'on utilise la sortie “Output
Reverb Only”, ce qui est dommage pour la compréhension du texte.
61
Finalement, les traitements proposés par la suite Izotope RX qui ont le
plus retenu mon attention par leur résultat inhabituel mais exploitable et
leur facilité à être détournés sont le De-click, le De-noise et le De-clip. Au
cours des tests, je trouve que le De-click est plus intéressant lorsqu'on
enclenche la fonction “Output Clicks Only”. Ainsi, on en obtient des sortes de
“granules” de voix sans pour autant que cela ne ressemble à de la
granulation classique. Dans cette configuration, je pousse la sensibilité de
détection au maximum pour entendre assez de matière afin de reconnaître
la voix. Dans ce cas, le “clic widening” va jouer sur l'impression de
granulation de la voix. Plus il est bas, plus la voix sera abimée et la texture
distordue, on reconnaitra moins l'aspect vocal du son et le bas du spectre
sera moins audible. En efet, lorsque la découpe autour des clics est de
l'ordre de la milliseconde, il devient plus dificile pour la reproduction de
faire entendre le spectre en dessous de 1000Hz puisque la période des
sinusoïdes dont la fréquence est inférieure sera tronquée au sein de chaque
“granule” de son. En passant l'algorithme sur la détection de clics
périodiques, la texture est plus fournie et régulière mais donne un aspect
plus robotique à la voix alors que la détection simple est plutôt imprévisible
et fonctionne mieux en renfort d'un autre son.
Je teste d'emblée le De-noise en “Output Noise Only” pour en extraire
un résultat plus franc. Dans ce cas, je préfère garder le “threshold” au
minimum et gérer l'altération plutôt avec le niveau d'entrée du signal. Le
paramètre de réduction complète ces réglages en contrôlant la quantité de
bruit à retirer en décibels. Cependant, sa limite étant celle du niveau du
signal lui-même, on retrouvera ce dernier intact en “Output Noise Only” si la
62
réduction est poussée au maximum, et aucun son ne sortira s'il le curseur est
au minimum, il faut donc trouver un équilibre à cette réduction qui dépend
vraiment du son en entrée. Ainsi, dans l'utilisation que j'en fais, je considère
que le réglage du seuil devient une sorte de “Dry/Wet” (balance entre signal
traité et signal brut) de mon efet, le niveau d'entrée serait un “taux de
distorsion” et le paramètre de réduction en serait le niveau d'entrée, puisque
ce dernier agit aussi sur la proportion de la distorsion. D'ailleurs, ces
réglages étant très sensibles quant à la teneur des artéfacts en sortie, il vaut
mieux compresser très fortement le signal en entrée pour obtenir un rendu
homogène.
Pour obtenir une distorsion spectrale bien évidente, je place le curseur
de contrôle des artéfacts sur “musical noise” (bruit musical). La taille de la
FFT joue aussi un rôle en renforçant la transformation du son lorsqu'elle est
au minimum. Cependant, une FFT plus longue donne aussi des résultats
intéressants plus proches de la voix naturelle. Enfin, quand on applique la
fonction “Learn” au signal lui-même (devant normalement être appliquée
sur un passage ne contenant que du bruit), on modifie aussi fortement le son
en sortie. Sans elle, ce sont toujours les zones spectrales les plus faibles qui
font réagir l'algorithme, les considérant alors comme du bruit, ce qui a
tendance à colorer fortement le spectre en sortie. Il est alors important de
limiter ce biais grâce à la courbe de réduction, qui module l'influence du
paramètre de réduction en fonction des fréquences. En utilisant la fonction
“Learn”, les artéfacts sont beaucoup plus homogènes en fréquence, bien que
la voix en soit plus fortement déformée.
63
Le De-clip est le seul des trois plug-ins qui opère une véritable
transformation du son et non juste une découpe fréquentielle et temporelle
de celui-ci. Cette propriété du De-noise et du De-click rend d'ailleurs leur
usage contre intuitif : lorsqu'on additionne plusieurs sons traités par ces
modules, la transformation totale qui en résulte est plus faible que la
transformation de chacune des parties ajoutées, car finalement on
reconstruit le signal par ce procédé. Le De-clip ajoute donc des artéfacts qui
ne sont pas contenus dans le signal d'origine, il donne notamment
l'impression de diminuer la hauteur du son en entrée avec un efet de
“gargouillement”. Poussé au maximum, l'élocution étant bien respectée, on
dirait que la voix est émise par une technique de chant guttural utilisée
principalement dans la musique métal. En l'employant avec plus de
parcimonie, il déforme les formants et confère à l'interprète une apparence
monstrueuse.
Ainsi, ce sont ces trois derniers modules que je vais utiliser pour
composer mon morceau, malgré l'intérêt que je porte aux autres traitements
de la suite Izotope RX. L'idée est aussi d'éviter la multiplication d'efets
diférents au sein d'un seul morceau qui pourrait alors s'apparenter à un
étalage de mes essais. Je vais néanmoins essayer de faire varier ceux-ci au
cours de la composition et de les associer entre eux pour un rendu plus
riche.
64
c – Les acteurs de la création
Avant tout, je cherche à ancrer le morceau que je vais composer dans
des processus de création et de difusion réalistes, bien qu'il fasse l'objet
d'une recherche autour du détournement d'efets. Ainsi, je décide de
composer cette pièce de musique électronique avec le logiciel Ableton Live,
recommandé par mes pairs pour cette tâche et je le mixerai avec Pro Tools,
mon outil de travail habituel. J'enregistrerai des maquettes chez moi avec
mon micro personnel (un Sennheiser MK4, micro statique à large membrane)
pour vérifier la pertinence de la composition vocale mais l'enregistrement
final sera réalisé dans la régie radio de l'école Louis Lumière, avec un
Neumann TLM103. Une fois achevé, ce morceau sera accessible sur le site
Soundcloud, qui permet la difusion de musique et autres podcasts tout aussi
bien par des amateurs que par des professionnels, et sera partagé via mes
réseaux de communication personnels (bouche à oreille, page Facebook, et
messagerie numérique). De ce fait, ce morceau sera réalisé et difusé comme
je l'aurai fait si cette première composition n'était pas destinée à répondre
aux attentes d'un mémoire. D'ailleurs, pour obtenir des retours du public, je
vais tenter de rendre le questionnaire que je cherche à faire remplir le moins
intrusif possible en en faisant un formulaire Google Forms dont je proposerai
de cliquer sur le lien seulement une fois le morceau écouté. En outre, je
tiendrai compte des retours informels qui bien qu'ils puissent être biaisés si
mes connaissances souhaitent m'encourager, sont les seuls retours que
j'aurais obtenus naturellement.
65
J'espère que ce morceau plaira à un public large et varié car cela
indiquerait que n'ai pas trop penché du coté de la musique expérimentale,
en marge de la production actuelle, et que mes procédés de composition
n'auront pas été trop hermétiques et auront transmis les émotions que je
cherche à partager. Cela montrerait aussi qu'il est bien possible et peut être
même profitable d'inclure de nouveaux efets dans la musique actuelle,
j'apporterai donc une attention particulière à la réception de l'efet par le
public.
Je travaillerai sur cette composition avec l'aide de Yohan Boisgontier,
co-producteur sur cette création. Ainsi, c'est avec lui que je discute de la
direction à prendre avant de composer et du placement de ma voix dans le
morceau. Au cours de nos écoutes communes, nous nous mettons à
imaginer un morceau très lent mais à la rythmique lourde et agressive, mais
à l'harmonie simple permettant une grande liberté mélodique pour la voix,
caractéristiques que je conserverai par la suite. Je composerai d'abord la
première maquette seule puis il la commentera et la complétera pour me
donner de nouvelles directions à développer pour la seconde, et ainsi de
suite jusqu'au résultat final. Ce sont donc bien mes idées que je mets en
musique tout en profitant des connaissances de Yohan en matière
d'arrangement et de ses influences. Il apportera ainsi au morceau ses
références en trap31 tandis que je composerai plutôt selon mes repères en
trip-hop. Néanmoins, dès la première maquette, la direction que j'emprunte
31 Courant musical émergeant au début des années quatre-vingt dix héritant du hip-hop et popularisé par les producteurs de musique électronique qui se caractérise par l'utilisation du TR-808 pour la basse, la prédominance de fréquences très graves dans la composition, la présence répétés de doubles croches, triolets et autres divisions temporelles très courtes pour la rythmique, sans pour autant exclure un contenu lyrique et des nappes de synthétiseurs dans la composition.
66
est déjà située à l'intersection de ces courants musicaux, ce qui facilite cette
hybridation.
Une seconde actrice majeure de cette composition réside en la
personne d'Aloyse Launay qui me conseillera dans l'élaboration de
l'harmonie mais qui surtout me donnera des cours de coaching
(entraînement) vocal. Après m'avoir appris quelques exercices
d'échaufement, nous travaillons rapidement sur le texte et la mélodie du
morceau au cours de séances de chant intenses. La technique d'Aloyse est de
me faire prendre conscience de tous les paramètres de ma voix à chaque
instant, quitte à me mettre en dificulté dans un premier temps pour chanter
avec émotion. Néanmoins, cela me permet ensuite de mieux la maitriser et
d'être plus précise sur mes intentions, même quand je ne me soucie plus des
aspects techniques. Au cours des séances, elle m'arrête donc à quasiment
tous les mots pour me mettre en garde sur la prononciation, la hauteur,
l'accentuation dynamique, le vibrato (souvent indésirable), la quantité de
soufle, l'ouverture de ma bouche et l'ouverture du fond de mon palais.
Grâce à ces cours, je me rends compte que ce que je jugeai n'être possible
que par la spontanéité et l’intuition se révèle être entièrement
paramétrables lorsqu'on maîtrise tous les aspects de sa voix. Je réalise ainsi
que je suis bien loin d'un tel niveau de virtuosité et que malgré ma grande
expérience en chorales et comédies musicales, chanter en soliste est bien
plus exigeant et requiert beaucoup de travail.
Enfin, Benoît Fleury me prêtera sa station de travail audionumérique
pour la fin de la production et le mixage, me permettant un grand confort de
67
travail. Aussi, étant mon colocataire, son omniprésence dans les moments
où je compose en fait une oreille extérieure eficace mais néanmoins
impliqué. Il m'aide alors à prendre le recul nécessaire lorsque je n'y parviens
plus et met en lumière des défauts que je n'aurai pas relevé seule. En efet, la
particularité de la composition que j'entreprends est que j'occupe tous les
postes de la production à la fois : Je suis compositrice, arrangeuse,
réalisatrice, chanteuse, mixeuse et ingénieure de mastering. Il n'y a donc
quasiment aucun moment où ce projet rencontre un acteur autant impliqué
que je le suis qui pourrait lui donner un peu de fraîcheur, si ce n'est Yohan
dans la phase d'arrangement et de réalisation et pour l'enregistrement de la
voix (nous travaillons néanmoins en binôme, il n'occupe pas seul ces
postes). Cette dificulté est renforcée par mon inexpérience totale en
composition. En efet, je n'ai jamais composé, arrangé ou réalisé de morceau
de musique, je n'ai jamais utilisé le logiciel Ableton Live à ces fins et je n'ai
jamais chanté en tant que soliste. La réalisation de cette partie pratique de
mémoire est donc un véritable défi pour moi, mais constitue aussi une
expérience intéressante à décrire puisque j'y rencontre tous les afres et les
joies de la composition sans aucun a priori.
d – Le choix du thème et des paroles
Avant de me lancer, je ne perds pas de vue le fait que ce morceau se
destine à accueillir des efets appliqués à la voix. C'est un paramètre que
j'aurai du mal à prendre tout à fait en compte au cours de la composition car
je découvre que j'ai beaucoup de dificultés à me projeter dans le morceau
68
fini à chaque étape, il m'est donc très dificile d'imaginer les efets avant que
je ne les y intègre. Je préfère ainsi me préparer à leur arrivée dès l'écriture
des paroles, que je rédige d'ailleurs dans un premier temps sans tenir
compte de leur intégration rythmique dans la composition (puisqu'il m'est
très dificile d'imaginer leur rendu). Je trouve la mélodie de la voix
intuitivement en tentant de chanter le texte sur la musique et adapte les
mots pour le faire coïncider rythmiquement.
De mes recherches efectuées précédemment, je retiens qu'ajouter un
efet permet souvent d'exprimer l’indicible, il met à nu les émotions du
chanteur ou de la chanteuse en les imprimant dans la matière même de la
voix et non plus seulement dans le texte. Il se comporte comme une
composante du grain de la voix lorsqu'il altère l'élocution et le timbre et peut
créer chez l'auditeur ou l'auditrice un sentiment d'inquiétante étrangeté en
modifiant la représentation morphologique de l'interprète. Aloyse
m'encourage à écrire un texte sincère pour faciliter son expression par le
chant, le morceau commençant déjà au moment de l'écriture à prendre une
tournure plutôt mélancolique, je choisis d'écrire un texte sur l'anxiété et la
dificulté du lâcher prise, sentiments très prégnants durant cette période de
mémoire et de composition musicale.
Ainsi, je décris l'idée selon laquelle perdre l'état de conscience généré
par l'anxiété donne l'impression de perdre en substance, le lâcher prise
s'accompagne d'une perte de contrôle et de sensations qui peuvent s'avérer
dificile à accepter. En somme, c'est un texte sur l'anxiété à l'idée de ne plus
être anxieuse. Dans ce texte, je m'adresse au sentiment de confiance lui-
69
même, qui finit donc par m'avoir et d'une certaine manière à m'assommer.
Je travaille autour du champ lexical du corps dans lequel la perte
d'émotions se somatise mais aussi sur celui de la météo qui représente
métaphoriquement ces dernières. Les saisons sont alors les successions
d'états d'âme, la chaleur, “heat” en anglais se traduit aussi par l'idée
d'ardeur des sentiments, l'orage est la colère et les pluies salées sont les
larmes. L'organisation plutôt chaotique de ces idées dans le texte traduit
ainsi mon état de détresse au moment du lâcher prise. Je vais donc tenter,
par la composition et l'interprétation vocale, de porter ces émotions plutôt
contradictoires, entre l'inéluctable délivrance de l'angoisse et la nostalgie
précoce quant à cet état alerte régi par des sensations intenses. D'ailleurs, je
chanterai ce texte avec une certaine forme d'apathie, soulignant l'aspect
fatal de la situation et la disparation des émotions qui l'accompagne.
Enfin, j'ai décidé d'écrire ces paroles en anglais bien ce ne soit pas ma
langue maternelle car d'une part je me projette musicalement mieux dans
cette langue. En efet, tous mes morceaux de référence sont chantés en
anglais. D'autre part, j'avais peur que l'utilisation d'un efet sur la voix,
lorsque ce dernier gêne la compréhension du texte, soit très perturbante
pour l'auditeur si le morceau est en français. On a l'habitude de comprendre
très distinctement les voix des morceaux chantés en français, qui sont
d'ailleurs souvent mixées plus fort, on pardonnera donc sans doute mieux
certains masquages par l'efet dans un texte en anglais.
70
Brained – Partie pratique de mémoireParoles et leur traduction
* Dans le morceau, « peace appears » s'entend aussi volontairement « disappear(s) ». Cette phrase signifierait alors : « Mais ils disent : “Disparais” ».
** « Brained » se traduit aussi par « cérébral ». La première partie de la phrase « You got me » souligne l'idée de se faire avoir.
71
A whisper in my chestStands against the clime
My seasons need some restTime
Breathing slows as you come backThank you for filling the lack
Pouring down along your spineI'm merging matter and divine
No more nerves in my fingersNeither blood under my lips
Cauterized as my angersFeelings heal but have no grip
Everything has retracted
Everything has been containedAnd soon...
The thought in my chest
Will dry up the soreMy seasons take rest
Time is no more
Indolence is realAphasia is near
My senses congealBut they say peace appears*
Everything has retractedEverything has been contained
Soon, I know, I will be subtractedFrom me. Once more, you got me brained
Un murmure dans ma poitrineLutte contre le climatMes saisons ont besoin de reposDe temps
Le soufle ralentit à ton retourMerci de combler le manqueM'écoulant le long de ton échineJe fusionne la matière et le divin
Plus de nerfs dans mes doigtsNi de sang sous mes lèvresCautérisés comme mes colèresLes sentiments guérissent mais n'ont pas de prises
Tout s'est rétractéTout a été contenuEt bientôt...
La pensée dans ma poitrineVa sécher la plaieMes saisons se reposentLe temps n'est plus
L'indolence est réelleL'aphasie est procheMes sens coagulentMais il disent que la paix apparaît
Tout s'est rétractéTout s'est contenuBientôt, je le sais, je serai soustraiteÀ moi même. Une fois de plus, tu m'as assommée**
*** « Heat » étant associé au champ lexical de la météo signifie « la chaleur » mais peut aussi désigner « l'ardeur des sentiments »
**** Au sens figuré et familier, « brain dead » signifie aussi « stupide ». Cela se rapproche du sens français du mot « mort » dans la phrase : « Je suis mort, je n'arrive plus à réfléchir ».
72
Indolence is realAphasia is near
My senses congealBut they say peace appears*
Everything has retractedEverything has been contained
Soon, I know, I will be subtractedFrom me. Once more, you got me brained
Heat sank into cloudsStorm choked in your shrouds
No one ever remembersThe salty rains of Novembers
Everything has retractedEverything has been contained
And soon, I know, I will be subtractedFrom me. Once more you got me brained
You got me brainedYou got me brain dead
You got me brainedYou got me brain dead
L'indolence est réelleL'aphasie est procheMes sens coagulentMais il disent que la paix apparaît
Tout s'est rétractéTout s'est contenuBientôt, je le sais, je serai soustraiteÀ moi même. Une fois de plus, tu m'as assommée**
La chaleur*** a plongé dans les nuagesL'orage s'est étranglé dans tes haubansPersonne ne se souviens jamaisDes pluies salées des mois de novembre
Tout s'est rétractéTout a été contenuEt bientôt, je le sais, je serai soustraiteÀ moi même. Une fois de plus, tu m'as assomméeTu m'as assomméeTu m'as mise en état de mort cérébrale****Tu m'as assomméeTu m'as mise en état de mort cérébrale
2) RÉALISATION D'UNE PIÈCE DE MUSIQUE
ÉLECTRONIQUE
a – La création de la première maquette
Je commence ma composition en plaçant une nappe du clavier
Canadian Board, dont je module l'amplitude par deux LFO (Low Frequency
Oscillator, oscillateur à basse fréquence en français) à la forme d'onde
carrée, ce qui donne les sautes rythmiques de volume du son. Je commence
par définir une première grille pour le couplet qui sera : ré mineur/mi
majeur/ré mineur (premier renversement)/mi majeur. Comme j'aime
beaucoup la texture discontinue de ce clavier, je me plais à laisser trainer en
longueur ces nappes, ce qui finit par définir le tempo du morceau : 116
battements par minutes. Yohan me fera remarquer que bien que ma session
soit calibrée sur cette valeur, le tempo perçu se situe plutôt à la moitié de
celui-ci, 58bpm, ce qui est extrêmement lent. Néanmoins, j'apprécie la
sensation de lourdeur que cela apporte au morceau et le conserve. Cette
lenteur me permettra d'ailleurs de développer facilement quelques
rythmiques ternaires, ce que je fais donc pour la caisse claire et plus tard
pour la voix. J'aime l'impression de roulement et de flottement que ce
mélange binaire/ternaire apporte au morceau. Je duplique ensuite le
module du Canadian Board pour remplacer la forme d'onde de son
générateur par une forme d'onde carré aléatoire, toujours modulé par le
même LFO. Il en résultera le bruit rose à l'enveloppe discontinue qui traverse
le morceau.
73
Je compose ensuite le motif de la batterie qui restera intact jusqu'à la
version finale, mis à part quelques breaks ajoutés par Yohan. Cependant, il
va considérablement m'aider à modifier les sons que j'ai choisis. Il
commence par me faire remarquer que j'ai utilisé une grosse caisse tonale,
issue d'un Roland TR808, qui rentre donc en conflit avec l'harmonie du
morceau. Il me propose donc de la remplacer par un son plus précis avec
plus d'impact et de faire de ma première grosse caisse la basse du morceau,
en faisant évoluer sa hauteur. Il enrichit le reste du kit de batterie de
sonorités trap et ajoute un son d'impact réverbéré sur le refrain. Avant son
intervention, ma basse est générée par un sample de clavier analogique
proposé par Ableton dont le son ne me plaît pas tout à fait et que je ne peux
pas modifier puisque je n'ai pas accès à une émulation de ce clavier. Nous
arrivons avec Yohan à obtenir un son similaire et modulable grâce à une
émulation de synthétiseur Arturia miniV, qui sera conservé sur les refrains de
la version finale.
La base mélodique qui m'a servie à composer les refrains est celle
jouée à la cloche. À partir de celle-ci, j'en déduis une progression
harmonique qui sera : la mineur/mi majeur/mi majeur septième de
dominante/la mineur. C'est finalement une progression classique mais très
eficace. Dans un premier temps, je voulais que cette mélodie soit jouée par
des cordes, mais n'arrivant pas à trouver un son assez réaliste, j'essaye
quelques simulations d'instruments au hasard et finis par décider que le son
de cloche me plaît beaucoup. Je prolonge les instruments du couplet sur le
refrain en les adaptant à l'harmonie, et c'est ainsi que j'achève une première
maquette de ce morceau. À sa première écoute, Yohan constate que le
74
morceau possède déjà une couleur trap très prononcée, notamment dans
l'utilisation des cloches sur le refrain car c'est une pratique assez courant
dans ce style. C'est d'ailleurs surement pour cela que j'avais l'impression
que cette association fonctionnait bien. Il me reproche d'être un peu frileuse
sur l'utilisation de synthétiseurs plus aigus, j'ai en efet tendance à vouloir
ajouter toutes mes nouvelles lignes mélodiques dans le bas. Ce n'est pas
étonnant étant donné mon influence majeure qui réside en la personne de
Gesaflestein. Mike Lévy, de son vrai nom, est un compositeur de musique
électronique aux sonorités très sombres et à l'esthétique minimaliste. La
prédominance de la basse dans ses compositions m'inspire beaucoup.
Finalement, ce que je regrette de n'avoir pas conservé de cette
maquette est son minimalisme et sa clarté. Les éléments sont peu
nombreux, on prête alors plus attention à leur timbre et on comprend bien la
composition. Je ne m'attendais pas à ce que l'ajout de la voix, testé à partir
de la troisième maquette (il y en aura quatre en tout avant que je débute le
mixage), brouille autant la compréhension du reste. Cela est aussi dû aux
efets que j'appliquerai dessus qui prennent beaucoup de place et à ma
volonté de superposer plusieurs prises vocales sur les refrains. Après cette
maquette, j'ai surtout continué à composer en surenchérissant à chaque
étape, rendant le résultat très dense, mais ce n'est pas un mal non plus. Je
pense que je n'osais pas retirer des éléments lorsque j'avais la sensation
qu'ils fonctionnaient avec le reste, de peur de ne pas réussir à retrouver un
autre son à la fonction équivalente. Un autre biais de “débutant” qui m'a
poussé à charger ma composition est le peu de confiance que j'attribuais à
chaque synthétiseur, craignant de me rendre compte au mixage qu'ils ne
75
s'intègrent pas du tout au reste. Cette crainte est plutôt paradoxale
puisqu'étant ingénieure du son, c'est mon métier de me projeter dans de la
matière imparfaite et imaginer comment la mettre en forme pour en obtenir
le meilleur résultat. Pourtant, je n'y arrivais pas du tout lors de l'étape de
l'arrangement. Dans un processus de production normal, le réalisateur ou la
réalisatrice du titre efectue un pré-mixage de celui-ci pour avoir une idée du
rendu et c'est le mixeur ou la mixeuse qui reprend la matière initiale pour
rendre le mix final. Dans mon cas, je ne souhaitais pas passer par deux
étapes successives de mixage sachant que l'apport principal de ce processus
est le regard extérieur du mixeur ou de la mixeuse, mais c'est peut-être à
cause de ce choix que j'ai eu du mal à anticiper le rendu de
l'instrumentation.
b – Les ajustements et le choix de la structure
Un problème se pose lors de la construction du morceau : les couplets
s'enchainent très bien avec les refrains, mais le retour des refrains aux
couplets est un peu bancal, bien que l'enchainement harmonique se fasse
entre deux tons voisins. Pour pallier à ça, Benoît m'encourage à utiliser un
post-refrain, une ou deux mesures sur un autre accord permettant un
enchainement plus naturel. Je me rends compte que la dificulté que j'ai à
placer un accord avant la reprise du couplet est aussi liée à une erreur de ma
part. En efet, j'ai mal programmé ma première ligne de synthétiseur
Canadian Boards en oubliant de placer un ré pour l'accord de ré mineur, ce
qui donne une incertitude sur la couleur de l'accord (ré mineur pour ré-fa-la
76
ou fa majeur si les notes étaient fa-la-do). Je me dis que finalement,
commencer par un accord de fa majeur est plutôt intéressant, ça nuance la
coloration mineure très marquée malgré les accords de mi majeur. Entre
temps, Aloyse me donne quelques conseils sur l'harmonie et juge que le
troisième accord de ré mineur sur mes couplets n'est pas très heureux.
Compte tenu de tous ces problèmes, je fini donc par réécrire toute la grille et
la transforme en fa majeur/mi majeur/mi majeur septième de dominante/la
mineur. Elle s'approche donc beaucoup de la grille des refrains mais
fonctionne bien mieux. En efet, l'alternance des accords de ré mineur et mi
majeur ne donnait pas vraiment de moment de résolution à la grille et
laissait place à peu de variation pour les instruments.
Au cours des deuxième et troisième versions de la maquette, je trouve
enfin un son de synthétiseur basse qui me plaît avec le preset “Analogue
Classique 1” du module Massive, dont je retouche l'enveloppe pour obtenir
de longues tenues de notes. J'aime beaucoup la densité de ce son de basse
et sa richesse dans les médiums, il s'associe aisément au son du TR 808 qui
lui est très riche en graves et extrême graves mais reste très sourd. J'ajoute
enfin un synthétiseur aigu avec le preset “Drashtail” du FM8 de Arturia, sorte
d'imitation de clavecin. Ces ajouts de synthétiseurs sont laborieux car je
connais très mal les plug-ins que j'emploie et les claviers qu'ils émulent. Je
préfère continuer à composer de manière intuitive et éviter de lire toute la
documentation les concernant, aussi pour gagner du temps, mais cela fait
que n'ayant pas pu les prendre complètement en main avant de les utiliser,
je suis condamnée à tester un à un les presets qu'ils proposent et à deviner
l'influence de leurs réglages au fur et à mesure. Pour cette tâche, ma
77
formation en ingénierie sonore est plus que nécessaire car je comprends
rapidement le trajet du signal (et même des signaux) dans les synthétiseurs
modulaires et connaît déjà la plupart des intitulés des potentiomètres.
Néanmoins, cette manière de procéder couplée à ma dificulté à me projeter
dans le résultat final fait que j'ai tendance à conserver un son lorsqu'il me
rappelle un autre morceau de musique. Par exemple, le simili-clavecin du
FM8 me rappelle fortement le clavecin utilisé par Archive dans les refrains du
morceau You Make Me Feel. Dans ce cas, ce son est utilisé en alternance avec
le reste de l'instrumentation pour donner une sensation d'acoustique et
contraster avec la composition très dense. Aussi, la ligne de basse
synthétisée par le module Massive me fait penser aux claviers utilisés dans la
synth-wave32, notamment dans les compositions de Carpenter Brut dans
lesquelles un clavier grave, s'il est assez riche en harmonique, peut prendre
une place centrale dans la composition en jouant la mélodie principale.
Finalement, j'expérimente le nœud de la création musicale populaire.
On a beau vouloir chercher à innover, inventer, il n'en demeure pas moins
qu'il faut que le morceau “fonctionne”, c'est-à-dire qu'il plaise au plus grand
nombre, qu'il touche les auditeurs et auditrices. Néanmoins, le moment où
le compositeur ou la compositrice sent que le morceau commence à évoquer
quelque chose chez lui ou elle, c'est souvent parce qu'il lui fait penser à un
autre titre. On se retrouve donc dans un schéma d'imitation, conscient ou
non. Ainsi, moi qui craignais d'aboutir à une création trop expérimentale et
éloignée de la production actuelle, je me rends compte que je n'étais pas
32 La synth-wave est un genre musical qui se popularise au début des années 2010. Ce genre est caractérisé par une forte influence de la musique des films des années 1980 qui tend à l'imitation, une prédominance des claviers analogiques dans la composition et une imagerie rétro-futuriste qui l'accompagne.
78
aussi neutre que je le pensais au début de la composition car déjà fortement
influencée par mes habitudes d'écoute. Si je devais recréer un morceau, je
pense que je me briderais moins et pousserais les expérimentations quitte à
retirer après ce qui ne fonctionne pas. En outre, un autre frein à
l'expérimentation est l'utilisation du logiciel Ableton Live qui oriente le
processus de composition en facilitant la réalisation de certaines tâches et
en en rendant d'autres impossibles. Il m'aurait ainsi fallu une plus grande
expérience de ce logiciel pour le pousser dans ses retranchements et accéder
à ses fonctions les plus complexes, tandis que dans mon cas je découvrais
une à une les fonctions de base.
c – Le travail sur la voix
Pour la composition de la voix, je commence par enregistrer des
morceaux de texte que j'ai déjà écrit en improvisant des lignes mélodiques et
leur placement rythmique. Étonnamment, il ne m'aura fallut que deux essais
pour trouver la mélodie finale. Ayant le morceau Paradise Circus de Massive
Attack en tête à ce moment, je réalise que j'imite sans le faire exprès le ton
de la chanteuse Hope Sandoval sur ce titre. Ainsi, je murmure presque le
texte, ce que je corrigerai sur les prises vocales définitives pour éviter que la
référence soit trop évidente (Yohan la décelant dès la première écoute), mais
par contre je m'inspirerai du mixage de la voix de ce morceau pour les
moments où ma voix n'est pas traitée. À la suite de ces premiers essais, je
modifie juste quelques mots pour que la diction soit plus simple et je rajoute
du texte. En efet, au début je ne chantais qu'une phrase sur deux par
79
rapport à la dernière version, ce qui donnait l'étrange impression qu'il
manquait des mots. Finalement ce problème s'est résolu bien qu'à la
réécoute je trouve le texte très dense et la voix un peu trop omniprésente.
Néanmoins, le rythme ternaire de la voix est intéressant et contrecarre la
pesanteur apportée par les efets.
Une dificulté que je n'avais pas anticipé apparaît lorsque je
commence à travailler le chant avec Aloyse. J'ai écrit malgré moi une ligne
mélodique très dificile à chanter sur les refrains. Elle comporte de longues
tenues et il n'y a quasiment aucun moment où je peux reprendre ma
respiration. De plus, j'y ai placé des mots à la prononciation périlleuse
(notamment le mot « subctrated » qui m'a demandé beaucoup
d'entrainement avant que j'arrive à placer correctement chacune de ses
consonnes en rythme). L'exigence d'être juste sur toute la tenue des notes
est renforcée par l'aspect électronique de la composition. En efet, toute
l'instrumentation ayant une hauteur absolument exacte, la moindre
variation de hauteur de la voix est audible et sonne tout de suite très mal.
Lors de l'enregistrement, il a ainsi été très dificile de juger de la réussite des
prises de voix pour le refrain puisque toutes sonnaient, à un moment ou un
autre, faux. Yohan et Aloyse, présents lors de cet étape délicate, m'ont
encouragée en découpant mon texte pour que j'en fasse des prises séparées
et en me donnant des indications sur l'intention vocale. En efet, j'ai réalisé
que l'intention dans la chant se perd beaucoup une fois enregistrée, c'est un
phénomène que j'avais déjà pu observer en enregistrant des chanteurs et
chanteuses qui sont pris de stupeur en écoutant leur première prise,
néanmoins il n'en reste pas moins décourageant.
80
Heureusement, mes compétences en montage de voix et en
manipulation du logiciel Melodyne (qui sert à réajuster la hauteur de prises
de son) m'ont redonnée confiance en ma prestation une fois que tout fut
traité. De cette expérience d'enregistrement de “l'autre côté de la vitre”, je
retiens une extrême complexité dans le contrôle de la voix, surtout que les
défauts ont tendance à être accentués à cause de l'enregistrement. Malgré
plusieurs années de chant dans des choeurs, je n'avais jamais autant
questionné ma pratique vocale. Si c'était à refaire, je pense que je travaillerai
plus en amont en cherchant à être très précise sur chaque intention et je
répéterai plus souvent avec un micro pour être plus à l'aise dans cette
configuration.
Une fois la voix enregistrée, j'exporte ma quatrième et dernière
maquette pour commencer mon travail sur Pro Tools et enfin ajouter des
efets sur la voix. Les plug-ins de la suite Izotope RX sont très gourmands en
mémoire vite et Pro Tools a rapidement tendance à arrêter la lecture ou
même à se fermer lorsque j'essaye d'enchainer certaines opérations trop
rapidement. C'est d'ailleurs pourquoi je n'ajoute ces efets qu'à postériori, il
aurait été très dificile pour un ordinateur de supporter un enregistrement et
un traitement en temps réel par Izotope RX. De plus, ces traitements
engendrent aussi une latence allant parfois jusqu'à une dizaine de millier
d'échantillons. Ce délai est compensé par le logiciel en lecture mais ne peut
pas l'être en enregistrement, il y aurait beaucoup trop de latence dans le son
pour chanter en même temps. En efet, sachant que j'enregistre en 44.1Khz,
10 000 échantillons à compenser correspondent à 227 millisecondes de
latence, ce qui revient quasiment à une croche de décalage pour mon
81
morceau (la valeur exacte de la croche étant de 259ms à 116bpm).
Ainsi, j'utilise deux De-noise33 en “Output Noise Only” sur les deux
premiers couplets, aux réglages diférents et en sommant leur résultat. Le
premier apporte plus d'aigu, donne un efet un peu “vieille radio” en
agissant presque comme un passe bande, et ajoute donc de l'intelligibilité.
J'ai utilisé la fonction “Learn” sur le second, ce qui fait que le son est plus
équilibré mais beaucoup plus déformé, mélanger les deux permet alors
d'éviter l’incompréhension totale du texte. À cela, j'ai ajouté un De-click en
“Output Clicks Only” dont l'algorithme est celui de la détection multibande
de clics réguliers, il permet ainsi d'ajouter l'étrange “vibrato” qui apparaît
sporadiquement.
Sur le dernier mot du premier refrain (« Soon ») et la seconde partie du
deuxième refrain, j'ai ajouté à la voix naturelle un De-click en “Output Clicks
Only” à l'algorithme de base, qui détecte donc des clics irréguliers sur une
bande unique. La région supprimée autour du clic (clic widening) est plus
faible lors de sa seconde apparition, ce qui donne l'impression d'entendre
des clics de saturation sur ce passage, surtout qu'il arrive sur l'un des
moments les plus intenses du morceau. Cet efet me fait beaucoup penser à
la saturation numérique omniprésente dans le morceau Crown on the
Ground des Sleigh Bells, présent dans la bande son du film The Bling Ring de
Sofia Coppola. Ce duo se revendique du mouvement dance-punk, alliage
antithétique entre l'idée de créer des musiques dansantes pour le grand
public et l'énergie primaire et provocatrice du mouvement punk. Cet usage
séditieux de la saturation fait controverse parmi les fans du groupe mais je le33 Captures d'écran des réglages des modules Izotope RX en Annexe 6
82
trouve personnellement très eficace malgré la transgression immense qu'il
représente pour un ingénieur du son.
Pour le troisième et dernier couplet, j'ai utilisé un De-clip aux réglages
modérés pour que la voix soit encore bien compréhensible, puis j'ai poussé
son réglage au maximum sur le dernier refrain en le plaçant en parallèle de
la voix non traitée. J'aime beaucoup l'aspect monstrueux qu'il donne à la
voix alors qu'il est placé sur le passage le plus calme du morceau, du moins
pour la voix. Il me semble que la contradiction apparente entre ma voix
presque chuchotée et l'inhumanité rendu par l'efet renforce l'impression
d'inquiétante étrangeté sur ce passage.
Les refrains ne sont pas traités avec des modules de la suite Izotope RX
car je voulais jouer sur le contraste entre voix claire et voix traitée et éviter de
trop alourdir le morceau avec mes efets très denses. J'utilise néanmoins
dessus des techniques de production actuelle qui colorent fortement la voix.
J'ai superposé à chaque fois trois prises vocale, la principale au centre et les
deux autres à volume plus bas pour créer un efet stéréo. Cela produit un
léger efet de phase naturel et lisse le timbre de la voix. J'ai ensuite mis une
saturation légère sur la voix centrale non pas en tant qu'efet mais pour
modifier son équilibre fréquentiel. Ainsi, les aigus sont plus denses et plus
présents. Pour les parties traitées par les efets, j'ai fait en sorte d'éviter le
statisme en faisant varier leur intensité à plusieurs reprises, ce qui permet
aussi de conserver l'attention de l'auditeur et de rendre l'écoute plus
ludique.
83
d – Le mixage
Pour la voix, comme dit précédemment, je me suis inspirée du mixage
de la voix du morceau Paradise Circus pour certains passages non traités,
comme le début du dernier refrain et la toute fin du morceau. Ainsi, la voix
n'est pas du tout réverbérée, j'ai retiré beaucoup de bas medium et j'ai
ajouté des mediums et des aigus à partir de 700Hz. Pour lui donner la
couleur la plus naturelle possible, je ne l'ai pas compressée non plus. Le
reste de la voix a subi beaucoup de traitements, tant les refrains pour coller à
la coloration de la musique actuelle que les couplets dont il fallait calmer
certaines bandes fréquentielles très proéminentes. Par exemple, j'ai dû
retirer quasiment dix décibels autour de 7KHz sur les extraits passés au De-
clip et ajouter quelques filtres notchs sur des fréquences très aiguës
(notamment 10kHz et 16KHz) sans quoi la texture aurait été inutilisable. De
même, les éléments passés dans les modules De-Noise sont beaucoup
retravaillés fréquentiellement. De plus, j'ai compressé très fortement les
sorties des plug-ins De-Click car les clics obtenus sont de niveau très variable
et ne ressortaient pas du tout lorsqu'on additionnait ce son à un autre.
Pour le reste du mixage, j'ai utilisé des techniques de compression en
side-chain34 de la grosse caisse sur la basse, puis de la basse sur le
synthétiseur à la ligne la plus grave. Je compresse aussi en parallèle35 la
grosse caisse, la caisse claire et la basse pour faire ressortir leur texture et
34 La compression en side-chain consiste à compresser un instrument lorsque c'est un autre instrument qui dépasse le seuil fixé. Cela permet par exemple ici de faire ressortir la grosse caisse puisque le niveau de la basse diminue au moment où le coup est joué, celle-ci dépassant le seuil du compresseur de la basse.
35 La compression en parallèle consiste à ajouter le signal compressé au signal non traité.
84
éviter d'abîmer leur attaque. Je reviens à ce moment sur l'arrangement en
ajoutant une émulation de mellotron jouant des cuivres et des cordes qui
traverse le morceau pour ajouter de la matière. D'ailleurs, j'utilise aussi le
De-noise d'Izotope RX dessus et gère ainsi avec le niveau d'entrée la
désagrégation de ce matériau. J'ajoute aussi une ligne de cordes simulée
grâce au logiciel Kontakt sur la fin des refrains car je pensais faire chanter
cette mélodie à des choeurs mais l'enregistrement de la voix s'étant étiré en
longueur, nous n'avons pas pris le temps de le faire. De plus, dès le début de
la composition, j'avais très envie d'ajouter un son de cordes mais je ne
possédais pas encore ce logiciel. La possibilité de compléter l'arrangement
au fil du mixage est pour le coup un luxe permit par le fait que j'y procède
moi-même, c'est d'ailleurs l'un des seuls avantages que je vois à accomplir
seule toutes les étapes de la création.
Par la suite, J'ai enlevé beaucoup de bas medium sur les instruments
pour en ajouter ensuite par les réverbérations. Ainsi, le mix final est bien
analytique sur les couplets, mais les éléments ont tendance à se mélanger
un peu plus sur les refrains, les rendant plus compacts. Pour le mastering,
j'ai surtout pris soin d'amener mon morceau à un niveau moyen équivalent à
celui des productions actuelles grâce à un limiteur, soit environ -7dBFS. Je
n'ai pas retouché à l'équilibre spectral global car il me paraissait plutôt
cohérent et manquant plus que jamais de recul à cette étape, j'ai préféré ne
pas risquer d'endommager mon mix par un mauvais mastering.
85
En fin de compte, la production de ce morceau a alterné entre des
phases d'heureux hasard qui ont permis un déroulement rapide de certaines
étapes, notamment la composition de la première maquette, le choix de la
mélodie vocale et le premier placement des traitements sur la voix, et des
moments de recherche d'éléments précis, plus dificile à mettre en œuvre et
propices au doute. En efet, n'ayant jamais expérimenté la composition
avant celà, j'ai rencontré beaucoup de dificultés pour trouver certains
instruments puisque je ne connaissais pas encore bien les banques de son
que j'employais. De plus, j'ai eu du mal à m'autoriser certaines
expérimentations de peur que le morceau n'en devienne trop ardu, ne
réalisant pas que mon intuition quant à l'eficacité du morceau allait de
toute façon toujours me ramener vers des procédés conventionnels.
Heureusement, il me semble que ce morceau conserve une certaine
originalité dans le mélange des influences à la fois trap et trip-hop et dans
l'utilisation d'un nouvel efet. Aussi, il me sera indiqué par des auditeurs que
la composition et l'interprétation vocale, outre leur arrangement et leur
mixage qui en font un morceau de musique électronique, contient une
énergie très rock, voire relevant du métal, ce qui n'est pas étonnant car ce
sont des genres musicaux que j'ai écouté durant de longues années.
86
III. CRITIQUES ET RÉFLEXIONS
AUTOUR DU RÉSULTAT
87
1) LA MISE EN PLACE DU QUESTIONNAIRE
Ma partie pratique de mémoire est actuellement disponible en ligne
sur le site Soundcloud à l'adresse : https://soundcloud.com/sbsilber/brained.
Le morceau compte à ce jour 175 écoutes et 40 personnes ont répondu à
mon questionnaire. Ce dernier, disponible en Annexe 7, est composé de
douze questions et vise à évaluer à quel point mon morceau a été apprécié
mais aussi ce que le public a ressenti à l'écoute de celui-ci et ce qu'il a pensé
de l'utilisation de l'efet. Je demande ainsi aux individus de noter le morceau
sur dix tout en ayant au préalable requis leur âge, leur fréquence d'écoute de
musique électronique et leur profession (dans ce cas, musicien, ingénieur du
son ou aucun des deux) pour vérifier si ces paramètres ont une quelconque
influence sur la notation. Ensuite, je cherche à savoir quelles émotions ont
été ressenties à l'écoute du morceau et à quoi cela était dû dans deux
fenêtres de verbalisation libre. Je pense pouvoir regrouper les émotions
décrites dans des catégories (par exemple, une catégorie comprendra tous
les mots qui se trouvent dans le champ lexical de la tristesse : nostalgie,
mélancolie...) et observer leurs relations avec les paramètres du morceau
(tempo, mélodie, harmonie...) pour en extraire des corrélations. J'espère
pouvoir y déceler l'idée d'inquiétante étrangeté que provoque l'efet et
vérifier que les émotions que j'ai souhaité transmettre par ce morceau ont
bien été reçues. Je demande aussi ce que l'efet, d'après chacun, ajoute et
retire à la voix, ce qui me permettra d'évaluer leur interprétation de ces
efets mais aussi leur appréciation puisque ce sont des fenêtre de
verbalisation libre. Je pourrais donc voir si l'efet apporte bien du sens par
88
l'altération du grain de la voix. Enfin je rajoute deux questions dont la
réponse n'est pas obligatoire dans lesquelles je propose aux auditeurs et
auditrices de me dire si ce morceau leur a fait penser à un autre artiste et les
laisse s'exprimer dans la dernière fenêtre sur la création. Ayant composé de
manière intuitive et sans beaucoup de recul, il m'intéresse de savoir si je me
suis rapprochée malgré moi d'autres compositeurs et si mes références
initiales sont toujours apparentes, notamment Massive Attack, Kavinsky et
Gesaflestein.
89
2) RETOURS DU PUBLIC SUR LA CRÉATION
a – Retours généraux
Sur ces quarante retours, l'appréciation qui m'a été attribuée est de
7,2/10. La note la plus faible est de 3, la plus haute est de 10. La médiane est
à 7 et l'écart-type vaut 1,5, ce qui est très modéré, c'est-à-dire que les notes
se sont plutôt concentrées autour de la moyenne. En considérant que le
morceau est bien apprécié à partir de la note de 7/10, 5 ou 6/10 pouvant
signifier un avis mitigé et en dessous de cette note que les auditeurs et
auditrices n'ont pas aimé, je peux afirmer que 80% ont aimé ce morceau, et
10% ne l'ont pas du tout apprécié (quatre personnes ayant donné des notes
entre 3 et 4/10).
Figure 3 : Réponses données à la question « Que pensez-vous dece morceau ?» sous la forme d'un diagramme empilé.
90Note
0
5
10
15
20
25
30
35
40
10 9 8 7 6
5 4 3 2 1
L'âge des individus, le fait qu'ils soient ingénieur du son ou musicien et
leur fréquence d'écoute de musique électronique n'ont pas d'influence
significative sur la notation. Cela suggère que le morceau que j'ai composé
ne s'est pas trop approché de la création expérimentale, ce qui satisfait mon
idée de départ selon laquelle il est possible d'introduire de nouveaux efets
sur la voix dans la production musicale grand public.
b – Les émotions ressenties
Pour étudier les émotions ressenties à l'écoute de ce titre, je les ai
classées, lorsque c'était possible, selon cinq catégories. Feront partis du
champ lexical de la tristesse les mots mélancolie, nostalgie, idées noires et
pessimisme. Pour celui de la peur, ce seront inquiétude, stress, oppression,
insécurité, incertitude existentielle, détresse, mais aussi étoufement et
claustrophobie, et enfin la locution inquiétante étrangeté qui a été citée une
fois telle quel. On retrouve aussi le champ lexical de l’apaisement par des
notions comme la paisibilité, la zénitude, le calme et la sérénité, celui de la
colère par les mots déchirement, violence et rage. Enfin, les mots qui
suggèrent l'idée d'énergie sont uniquement lui-même et puissance. Selon
cette classification, 70% des personnes ont évoqué un sentiment de
tristesse, 35% ont décrit des émotions liées à la peur, 15% ont parlé
d’apaisement, 15% d'énergie et 12,5% ont évoqué la colère. Ces
pourcentages sont néanmoins à prendre avec précautions puisqu'ils
découlent de mon interprétation des réponses des individus. Les mots ayant
été le plus cités par ordre décroissant sont ceux de mélancolie, tristesse,
91
nostalgie puis inquiétude.
Les éléments les plus souvent cités pour justifier les émotions
ressenties par ordre décroissant sont le traitement de la voix, l'arrangement
(le choix des instruments, des textures), l'harmonie du morceau, la mélodie,
les diférentes rythmiques, l'évolution de l'intensité puis le tempo. Il semble
donc que les efet appliqués à la voix ait bien attiré l'oreille des auditeurs et
auditrices, mais les sensations engendrés par le morceau sont le résultats de
la composition entière. Les paroles n'ont servi qu'une seule fois de
justification. Je pense que les efets et la langue choisie ont rendu compliqué
leur compréhension, mais ce n'est pas un mal puisque j'ai volontairement
choisi d'appliquer des efets intenses quitte à dégrader l'intelligibilité.
D'après les résultats, il semble aussi que ce soit majoritairement le
traitement de la voix qui ait engendré le sentiment d'inquiétude, ce qui
pourrait suggérer que l'idée d'inquiétante étrangeté portée par l'efet a été
perçue par le public. Néanmoins, il est dificile de confirmer cette théorie car
l'interprétation de cesréponses reste très délicate.
c – La compréhension et l'appréciation de l'effet
Pour ce qui est de l'efet, un quart des individus ont souligné que
l'efet ajoutait de l'émotion, notamment de la soufrance et de la détresse et
renforçait le ton du discours. Il est dit qu'il apporte du sens au texte et qu'il
donne l'impression que la chanteuse a plusieurs émotions en même temps.
Ainsi, ces résultats vont dans le sens de mon hypothèse selon laquelle ces
92
efets agissent sur le grain de la voix et interfèrent avec le texte. Bien qu'un
quart des participants dise aussi que l'efet altère l'intelligibilité du texte, il
est intéressant de constater que même dans le cas où tout le texte n'est pas
compris, l'efet reste vecteur de sens. Par exemple, l'une des interprétations
donnée à cet efet est celle « d'un androïde qui découvre des sentiments, et
qui ne sait pas comment réagir, ou alors un humain qui voit ses propres
sentiments de cette manière et qui a du mal à les comprendre. »36 Cette
réception du sens du morceau est finalement très proche de ce que j'ai tenté
de raconter, bien que cette personne ajoute ensuite qu'elle a eu beaucoup
de mal à comprendre le texte, comme quoi l'efet a finalement largement
participé à la transmission du message.
L'efet a aussi été perçu comme ajoutant de l'originalité et étant le
signe d'une personnalité d'artiste. Sinon, la plupart y ont vu un apport
esthétique, soit en jouant sur la dualité humain-machine, soit en la
considérant d'emblée comme une texture instrumentale qu'il est possible de
dégrader et trafiquer. Certains ont mis en évidence que l'efet masquait le
timbre de la voix mais tous n'ont pas trouvé cela gênant. Il y a néanmoins six
personnes qui n'ont pas du tout aimé l'efet, certains d'entre eux pensant
qu'il amène de la confusion.
36 Réponse n°39 à la question « À votre avis, qu'apporte l'ajout de l'efet sur la voix à ce morceau ?»
93
d – La reconnaissance des influences
Ce morceau a rappelé très souvent aux auditeurs et auditrices le travail
de la chanteuse Björk. Efectivement, cette musicienne a beaucoup
expérimenté autour de la place de la voix dans la musique électronique et
trip-hop, je n'ai pas eu l'impression de m'en inspirer pendant la période de
création mais avec le recul je me rend compte que j'ai beaucoup emprunté à
sa démarche. Portishead et sa chanteuse Beth Gibbons ont aussi été cités
trois fois, ce qui n'est pas étonnant car ils ont beaucoup été influencés par
Massive Attack, l'une de mes références, Geof Barrow ayant été assistant
lors de l'enregistrement de leur album Blue Lines avant de fonder
Portishead. Ces deux chanteuses ont efectivement profité de beaucoup de
liberté dans leur interprétation du chant car le trip-hop permet souvent de
faire la part belle à l'expression vocale. Au dessus des instrumentations
parfois lourdes, sombres ou violentes, la voix traduit une forme de
vulnérabilité, de délicatesse, malgré l'atmosphère plombante qui règne
autour. Cette tendance dans l'utilisation de la voix apparaît dès l’émergence
du genre et Beth Gibbons s'en empare dès ses débuts.
En outre, deux personnes ont aussi rapproché ce morceau des
compositions du groupe de heavy metal Evanescence pour la mélancolie
qu'il exprime. Je pense en efet que le développement mélodique de la voix,
dont les sonorités mineures sont très appuyées sur les secondes parties des
refrains, peut être comparé à ce qu'on trouve généralement dans la musique
métal. De plus, le De-clip utilisé à la fin qui donne l'impression que je chante
de manière gutturale fait directement référence à ce type de musique.
94
Le morceau Nightcall de Kavinsky a été nommé deux fois, ainsi c'est
l'une de mes références directes qui a été reconnu ici. Je pense que ce qui a
permis de le reconnaître est l'alternance entre les passages traités avec efet
et les refrains en voie claire qui sont mixés à l'aide des techniques actuelles.
Gesafeltstein n'a été cité qu'une fois et personne n'a parlé de Goldfrapp
dont je me suis beaucoup inspiré pour la voix ni de musicien de trap, bien
que le morceau emprunte à cette esthétique. Pour Alison Goldfrapp, ce n'est
pas étonnant car cette chanteuse est peu connue du grand public.
Ainsi, je suis satisfaite de cette création car elle a été plutôt bien reçue
par le public, d'autant plus qu'il n'y a pas eu de distinction d'appréciation en
fonction de l'âge, de la profession ou des habitudes d'écoute. Ainsi, mon pari
consistant à intégrer un nouvel efet dans un morceau de musique grand
public est réussi. Racontant dans ce morceau ma dificulté à quitter l'anxiété
et ma peur du lâcher prise, bien que je ne puisse pas y échapper, je tentais
d'y exprimer mon angoisse, ma détresse face à l'inéluctabilité de la situation
tout en l'interprétant avec une certaine forme d'apathie sur les couplets. La
majorité des gens ont senti l'idée de tristesse et d'inquiétude mais aussi de
l'apaisement, de la colère et de l'énergie, je pense donc que la multiplicité
des émotions que j'essayais de traduire a été plutôt bien comprise. Aussi,
beaucoup d'individus ont senti que l'efet apportait un sens supplémentaire
à la narration, voire supputait celui du texte lorsque ce dernier n'était pas
compris, ce qui confirme mon hypothèse selon laquelle l'efet, en devenant
une des composantes du grain de la voix, renforce la signification.
95
CONCLUSIONLe détournement en musique est une démarche courante et est
pratiqué à la fois par les ingénieurs et ingénieures du son, mais aussi par les
musiciens et musiciennes, que ce soit dans le domaine de la recherche
savante ou de la pratique populaire. Il est un vecteur de création, ouvrant
parfois la porte à de nouveaux genres musicaux et participe au
développement des innovations techniques. C'est ainsi grâce au mésusage
d'outils très divers que sont nés par exemple la musique concrète, le glitch,
mais aussi le vocodeur, l'autotune et les techniques de prise de son et de
mixage actuelles. Le traitement de la voix n'est donc pas en reste et dans
l'idée de détourner moi-même un traitement pour en faire un efet, c'est-à-
dire une transformation évidente du son, je me suis intéressée aux méthodes
d'étude de la voix traitée. La sensation particulière procurée par les efets sur
la voix qui m'a intéressée est celle de l'inquiétante étrangeté. Elle semble
apparaître lorsqu'un efet, en dégradant la voix, transforme la
représentation que nous nous faisons de l'interprète. En s'appuyant sur la
définition du grain de la voix de Roland Barthes selon laquelle il est le
résultat de la friction entre le timbre chanté et la langue elle-même, l'efet
altérant le timbre et l'élocution deviendrait l'une de ses composantes.
Détourner un traitement sonore pour l'appliquer à la voix, c'était donc
chercher à faire parler les textures, comprendre ce qu'elles évoquaient en
moi pour leur faire porter un sens, une émotion, au sein d'un morceau de
musique. Ce travail a donc consisté en une expérimentation ludique des
modules Izotope RX et plus particulièrement des résidus de bruits qu'ils
96
retirent aux sources. Ainsi, j'ai tenté de trouver une utilisation originale à ces
rebuts sonores.
En composant une pièce de musique électronique à cet efet alors que
je suis une néophyte en la matière, je me suis heurtée à plusieurs obstacles.
Il a fallut apprendre à maitriser, ne serait-ce qu'au minimum, les nouveaux
outils à ma disposition et réinventer le fonctionnement des traitements
Izotope RX. Ainsi, les diférents curseurs à ma disposition sur ces modules
ont fini par avoir un impact bien diférent par rapport à leur intitulé sur le
son tandis que j'essayais d'en extraire toutes les déformations possibles.
Pour la composition, la plus grande dificulté fut de travailler sans recul ni
vision de ce que serait le résultat. J'ai eu l'impression d'avancer à l'aveugle,
alternant entre des phases d'heureux hasard où tout évoluait très vite et des
moments de doutes où la mise en place de certains éléments pourtant bien
définis se révélait très ardue.
Ce qui m'a le plus frappée pendant cette production est la nécessité
inhérente à la musique qui s'adresse à l'afect du public à devoir
constamment chercher du recul en la composant. Il faut s'assurer à chaque
étape de la création que le morceau touchera les auditeurs et auditrices à la
première écoute alors qu'on l'a entendu des centaines de fois pendant ce
processus. C'était d'autant plus dificile au moment d'ajouter les efets
puisque n'ayant jamais entendu de morceau utilisant ces mêmes
traitements, je ne pouvais pas m'inspirer directement de références, ce qui
est en général un moyen eficace de faire fonctionner un efet ou autre choix
esthétique. C'est toutefois un procédé auquel j'ai eu recours pour tous les
autres aspects de la composition, parfois en ne réalisant que je m'étais
97
inspirée d'un morceau préexistant qu'après coup. Ce biais de création est
sans doute partagé par d'autres musiciens et musiciennes. N'est-on pas plus
souvent qu'on ne le croit dans l’imitation malgré notre recherche de
l'originalité ?
Finalement, mon morceau a été bien reçue par le public, 80% des
participants et participantes à mon questionnaire lui ayant attribué une note
de 7/10 ou plus. La multiplicité des émotions que je tentais d'y exprimer
semble avoir été comprise ou du moins bien perçue. Les individus ont dit
avoir ressenti à son écoute des sentiments proches de la tristesse, de
l'inquiétude, de la colère, de l'énergie et de l'apaisement, certains associant
parfois plusieurs notions contradictoires dans leurs réponses, alors même
que beaucoup ont avoué ne pas avoir bien entendu les paroles. Ainsi, les
efets appliqués à la voix ont l'air d'avoir rempli le rôle que je leur incombais
car c'est la justification qui a été la plus employée pour décrire les émotions
ressenties. Ils ont donc soutenu l'interprétation du texte. Néanmoins, c'est
aussi la teneur de la composition qui y a participé.
Cependant, ces résultats demandent tout de même à être nuancés, six
personnes sur quarante ont tout de même reconnu qu'ils n'aimaient pas ces
efets sur la voix et beaucoup ont trouvé qu'ils masquaient trop son timbre.
C'était un de mes partis pris dès le début de la composition mais il ne fait
efectivement pas l’unanimité. Ainsi, l'appréciation de l'efet semble tout de
même être liée aux gouts personnels, mes pairs qui ne l'ont pas aimé ayant
quand même admis qu'ils n'avaient jamais entendu un efet comme celui-ci
et qu'il était intéressant en cela.
98
En définitive, la suite Izotope RX et sûrement de nombreux autres
traitements sonores encore inexplorés permettent la création de nouvelles
textures surprenantes lorsqu'on les détourne de leurs fonctions et sont
susceptibles d'enrichir la création musicale. Hélas, les modules que j'ai
employé à cet efet demandent beaucoup de calcul et nécessitent parfois
d'exporter directement les fichiers qu'on souhaite traiter pour éviter de
saturer la mémoire vive de l'ordinateur. Il semble donc très compliqué de les
mettre en application dès l'enregistrement ou pour des concerts. Peut-être
est il possible dans ce cas d'imiter leur rendu par d'autres efets plus
simples. Ainsi, même si les usages de la suite Izotope RX que je propose sont
limités, j'espère au moins par ce mémoire avoir ouvert la porte à
l'imagination.
99
BIBLIOGRAPHIECollectif, Modulations : Une histoire de la musique électronique (Modulations, A History of Electronic Music : Throbbing Words on Sounds, 2000), trad. Pauline Bruchet & Benjamin Fau, Paris, Éditions Allia, 2004.
NEUMARK, Norie, GIBSON, Ross, et VAN LEEUWEN, Theo (sous la dir. de), Voice : vocal aesthetics in digital arts and media, Cambridge, Massachusetts Institute of Technology, 2010.
EMERICK, Geoff, et MASSEY, Howard, En studio avec les Beatles (Here, There and Everywhere: My Life Recording the Music of the Beatles, 2006) trad. Philippe Paringaux, préface de Elvis Costello, Gémenos, Le mot et le reste, 2009.
LANE, Cathy, « Voices from the Past: Compositional approaches to using recorded speech », In Organised Sounds, International Journal of Music Technology, vol. 11, n°1, avril 2006, p.3-11.
MORI, Mashiro, « The uncanny valley » (la vallée de l'étrange), trad. K. F. MacDorman & T. Minatc, Energy vol .7, n°4, 1970, p.33-35.
COUPRIE, Pierre, La voix dans la musique électroacoustique : approches analytiques, Exposé présenté lors d'une journée d'étude à l'Université de Rennes, 2001
GRISEY, Gérard, note de programme. Concert du 3 juin 1985.
SCHAEFFER, Pierre, À la recherche d'une musique concrète, Paris, Éditions du Seuil, 1952.
CAGE, John, Pour les oiseaux, Entretiens avec Daniel Charles, Paris, Éditions de l'Herne, 2014
GOSSELIN, Sophie & OTTAVI, Julien, « L'électronique dans la musique, retour sur une histoire » , Volume !, vol.1, n°2, 2002, p.71-83.
GALLET, Bastien, « Techniques électroniques et art musical : son, geste, écriture », Volume !, vol.1, n°1, 2002, p.17-28.
CASCONE, Kim, « The Aesthetics of Failure : “Post-Digital” Tendencies in Contemporary Computer Music » (L'esthétique de la défaillance : Tendances “post-numériques” dans la musique assistée par ordinateur contemporaine), Computer Music Journal, vol. 24, n°4, Hiver 2000, p.12-18.
COHEN-LEVINAS, Danielle, La voix au delà du chant, Paris, Librairie philosophique J. Vrin, 2006.
100
BOSSIS, Bruno, La voix et la machine, Rennes, Presse universitaire de Rennes, 2005.
FREUD, Sigmund, L'inquiétante étrangeté (Das Unheimliche), trad. Marie Bonaparte & Mme E. Marty, Paris, Gallimard, 1933.
BARTHES, Roland, « Le Grain de la voix », Musique en Jeu, n°9, novembre 1972.
BODE, Harald, « History of Electronic Sound Modification», Journal of the Audio Engineering Society, vol. 32, n°10, octobre 1984.
MANNING, Peter, Electronic and Computer Music, New York, Oxford University Press, 2004.
KELLY, Caleb, Craked Media : The Sound of Malfunction, Cambridge, MIT Press, 2009.
CLAIR, Simon, « Le jour où un sismologue a inventé l'autotune », Greenroom, 6 avril 2016,URL : http://www.greenroom.fr/97340-le-jour-ou-un-sismologue-a-invente-lauto-tune/
BELKHADRA, Themis, « OKLou : La misogynie dans la musique ? Les vestiges d'une culture qui a fait son temps. » TRAX magazine, 14 septembre 2016,URL : http://fr.traxmag.com/interview/36523-oklou-la-misogynie-dans-la-musique-les-vestiges-d-une-culture-qui-a-fait-son-temps
101
DISCOGRAPHIEJohn Cage, Imaginary Landscape No. 1, Peters, 1939, env. 9mn.
John Cage, Imaginary Landscape No. 3, Peters, 1942, env. 3mn.
Pierre Schaeffer, Étude aux Chemins de fer (Cinq études de bruit), 1948, 2mn50.
The Beatles, Paperback Writer (single), Parlophone, 1966, 2mn23.
The Beatles, Tommorow Never Knows (Revolver), Parlophone, 1966, 2mn59.
The Beatles, I Am The Walrus (single Hello/Goodbye, face B), Parlophone, 1967, 4mn37.
The Beatles, Lucy In The Sky With Diamonds (Sgt. Pepper Lonely Hearts Club Band),Parlophone, 1967, 3mn27.
Grandmaster Flash, The Adventures of Grandmaster Flash on the Wheels of Steel , SugarHill Records, 1981, 7mn01.
Nicolas Collins, Broken Light I, Corelli (It Was a Dark and Stormy Night), Trace Elements Records, 1992, 4mn58.
Artistes divers (compilation), Cliks_+_Cuts, Mille Plateaux, 2000, 130mn49.
Alvin Lucier, I am Sitting in a Room, 1969, env. 40mn.
Steve Reich, Come Out, 1966, 13mn.
Kavinsky feat. Lovefoxxx, Nightcall (Roadgame), Record Makers, 2010, 4mn19.
Daft Punk, Random Access Memories, Daf Life Ltd. & Columbia, 2012, 74mn24.
Gérard Grisey, Les chants de l'Amour, 1984, Rocordi, env. 45mn.
Claude Debussy, Pelléas et Mélisandre, 1902, env. 3h.
OKLou, The Rite of May, NUXXE, 2018, env. 20mn.
OKLou, Animal Crossing (Live pour les Amours Alternatives), 2015, 6mn46.
Laurie Anderson, Ô Superman (single), autoprod., 1982, 8mn21.
Daft Punk, Harder, Better, Faster, Stronger (Discovery), Virgin Records, 2001, 3mn46.
Goldfrapp, Deer Stop (Felt Mountain), Mute Records, 2000, 4mn06.
Gesafflestein, Aleph, Parlophone, 2013, 57mn33.
102
Archive, You Make Me Feel (Take My Head), Independiente, 1999, env. 43mn.
Carpenter Brut, Trilogy (compilation des EP I, II et III), No Quarter Prod, 2015, 81mn19.
Massive Attack feat. Hope Sandoval, Paradise Circus (Heligoland), autoprod., 2010, 4mn57.
Sleigh Bells, Crown on the Ground (Treats), N.E.E.T. Records, 2010, 3mn49.
Evanescence, Bring Me To Life (Fallen), Wind-Up Records, 2003, 3mn57.
Portishead (Beth Gibbons), Portishead, Go ! Discs, 1997, env. 42mn.
Björk, Medúlla, One Little Indian, 2004, 45mn40.
TABLE DES ILLUSTRATIONSFigure 1 : Représentation schématique de la vallée de l'étrange d'après Mashiro Mori.....p.33
Figure 2: schéma synoptique d'un vocodeur..........................................................................p.43
Figure 3 : Réponses données à la question « Que pensez-vous de ce morceau ?» sous la forme d'un diagramme empilé...............................................................................................p.90
103
ANNEXE 1 : Grille d'analyse de Pierre Couprie concernant la voix dans la musique
électroacoustique
Extrait du chapitre II ,« Les quatre angles d'analyse », du compte-rendu de l'exposé présenté lors d’uneJournée d’étude a l’Université de Rennes le 31/10/2001, La voix dans la musique electroacoustique :
approches analytiques.
104
II.1.2. Le texte [...]Sept criteres permettent d’evaluer le texte :1) Texte : ce critere est fonde sur la comprehension du texte en evaluant le type de brassage qu’a opere l’artiste ; 2) Rythme : permet d’evaluer les interruptions du flux textuel ; 3) Vitesse : evalue les changements de vitesse de lecture ; 4) Variation de hauteur : donne une estimation d’une transformation de la hauteur ; 5) Cadence : evalue la courbe d’intonation avant un silence ; 6) Silence et cesure : evalue des silences importants en duree ; 7) Alliteration : estime le lien avec le reste du materiau sonore.
II.1.3. La morphologie L’analyse morphologique permet d’etudier les composantes internes des sons. Ces differents criteres nous renseignent particulierement sur l’ensemble des modifications que le compositeur a fait subir au materiau sonore. L’evaluation se fait, comme dans le cas de l’analyse poetique presentee precedemment, par une estimation de la distance entre le son entendu et le son qui a servi de point de depart. [...]Elle regroupe 8 criteres : 1) Hauteur : evalue la transposition de la voix ; 2) Spectre : permet de noter les transformations de type polyphonique par exemple ; 3) Intensite generale : intensite generale de l’echantillon sonore analyse ; 4) Couleur : estimation de la couleur du son ; 5) Texture : evaluation du grain de la voix ; 6) Panoramique : position et/ou mouvement du son ; 7) Espace : position dans un espace a 3 plans ; 8) Effet : importance de la transformation du son.
II.1.4. La reference [...]Les criteres referentiels sont donc au nombre de deux : 1) Identification : homme, voix melangees, femme, enfant, voix indeterminee ;2) Émotion : un ensemble de qualificatifs (serenite, calme, meditatif, intimiste, triste, melancolique, plaintif, inquietant, oppressant, angoissant, effrayant, pesant, obsedant, stressant, pressant, sautillant, entrainant, joie, fraicheur, humour, rayonnant, passion, tendresse, douceur).
II.1.5. Les transformations [...]Les effets peuvent etre classes en cinq categories : 1) Les effets jouant sur la prolongation du son : les delais et reverberations ; 2) Les effets jouant sur des transformations internes du spectre du son : les filtres, etc. ;3) Les effets modifiant la place du spectre dans la gamme generale des frequences : la transposition, les effets polyphoniques, etc. ; 4) Les effets modifiant l’enveloppe dynamique du son : gate, generateur d’enveloppe, etc. ; 5) Les effets ajoutant au son un element qui semble exterieur : modification du grain, modulateurs, etc.
ANNEXE 2.1 : Grille d'analyse de Cathryn Lane a propos des types de transformation
vocaleExtrait de l'article « Voices from the Past: Compositional approaches to using recorded speech ». In
Organised Sounds, International Journal of Music Technology, vol. 11, n°1, avril 2006.
105
1 - Dissolution of semantic meaning through processing : The semantic meaning of a word or phrase is dissolved through a processing effect such as layering, overwhelming reverberation, reversed echo, spectral processing, etc., e.g. Steve Reich Come Out.
2 - Dissolution of semantic meaning through deconstruction Words are split into their component syllables or smaller units and are used acousmatically, e.g. Lettrist sound poet Isidore Isou’s reduction of words into particles ; ultra-lettrist François Dufrene’s crirhythms, and sections of Hidden Lives (1999) by Cathy Lane.
3 - Dissolution of semantic meaning through sonic translation or equivalence: Meaning of words or phrases are translated or transferred into a sound equivalent where the semantic meaning is not quite so apparent and which requires a different kind of understanding, e.g. Trevor Wishart Red Bird. 4 - Accumulation of meaning by sonic association: semantic meaning of words is reinforced by the additional use of other sounds relating to the text, e.g. text about the sea is complemented with ‘flowing’ or ‘undulating’ sounds.
5 - Accumulation of meaning through performance: Human expression is the focus of the work and the dramatic narrative according to the emotive aspects of the vocal usage, e.g. L. Berio Visage, many works by sound poets.
6 - Accumulation of meaning by semantic extension or elaboration: This is often achieved through processing e.g. Wisharts’s Two Women and American Triptych.
7 - Accumulation of meaning by structural association: Meaning is reinforced by the way that the text is manipulated and structurated, e.g. compositional techniques used in madrigals, Monteverdi, Ligeti, Crumb, etc.
8 - Accumulation of meaning by massing of voices or montage: Meaning is reinforced by the way that different voices come in saying either the same word or different things which built up and reinforce a total picture. This is an extremely common device, e.g. Glenn Gould’s The Idea of North.
9 - Retention of meaning: Words are presented as recorded with no apparent processing.
10 - Melodic or rhythmic extraction, translation and elaboration: The melodies or rhythms of the spoken word are extracted and taken up by other elements in the work, again this may reinforce meaning but it also may be a purely abstract device, e.g. Steve Reich’s Different Trains.
11 – Narrative content or context: A piece of music that is built around a pre-existing (ofen well-known) text, for exemple electroacoustic transformation of poetry of prose, e.g. Berio’s Thema-Omaggio a Joyce (1958), Paul Lansky’s Six Fantasies on a Poem by Thomas Campion, or even about an event, e.g. The Sinking of the Titanic by Gavin Briars.
12 - Narrative guidance: Text spoken by a lead or authoritative voice which guides the listener through the work, e.g. Hildegard Westerkamp, Kits Beach Soundwalk (1989) or Janet Cardiff The Missing Voice.
13 - Narrative suggestion: Vocal events are not foregrounded but used to indicate human presence or human activity e.g. Katharine Norman People Underground (1996).
14 - Phonetic excitation: The voice is used to articulate some other sources of resonance, e.g.architectural space as in Alvin Lucier’s I Am Sitting in a Room (1970) or synthesizer such as a vocoder.
15 - Semantic juxtaposition and permutation: Apollinaire’s Les Mamelles or the ordering and re-ordering of words in pieces such as Junk is no good baby and Brion Gysin, William S. Burroughs’ cut-ups, Cage’s use of mesostics in works as Roratorio (1979), Song Books (1970) and 63 Mesostics Re Merce Cunningham (1971). This can be asimilated to granular shynthesis.
16 - Nonsense juxtaposition and permutation including the inventing of words: A whole new language is not invented but new words are dropped into existing language. Lewis Carroll’s Jabberwocky in Through the Looking Glass. Christian Morgenstern semantically opaque Kinkajou ‘kroklolwafzi’ (around 1890) and Paul Scheerbart’s poem ‘kikakoku!’ (1897) In 1967 Henri Chopin composed Frogs of Aristophanes.
17 - New languages or metalanguages : Languages are made up out of plausibly sounding phonemes from existing languages, e.g. Kruchenkykh’s Zaum poetry, McClure’s Beast language, Paul Lansky’s Idle Chatter series.
18 - Computer- generated and synthesised speech: For example, Charles Dodge’s extensive experiments with speech and vocal synthesis as in works such as Speech Songs (1972), or material with speech-like characteristics generated by the computer, e.g. Paul Lansky’s Idle Chatter.
19 - Composing text as part of the compositional process : For example, Paul Lensky’s Now and Then (1991) and Things She Carried (1995-1996).
ANNEXE 2.2 : Grille d'analyse de Cathryn Lane (Traduction)
106
1 - Dissolution de la semantique par le biais de la transformation : la semantique d'un mot ou d’une expression est dissoute par un effet de transformation comme la superposition, la reverberation ecrasante ou echo inverse, traitement spectral, etc. par cf. Steve Reich Come Out.
2 - Dissolution de la semantique par le biais de la deconstruction : les mots sont separes en syllabes ou en unites plus petites et sont utilises d’une maniere acousmatique, cf. le poete lettriste Isidore Isou dans la reduction des mots en particules, l’ultra-lettriste François Dufrene de crirhythms, et des sections de Hidden Lives (1999) de Cathy Lane.
3 - Dissolution de la semantique par le biais de la traduction sonore ou de l'equivalence : le sens des mots ou des phrases est traduit ou transfere dans un son semantique equivalent où le sens n'est pas tout a fait aussi evident, et qui necessite un autre type de comprehension, cf. Trevor Wishart Red Bird.
4 - Cumul des sens par son association : la signification semantique des mots est renforcee par le recours a d’autres sons relatifs au texte, par exemple, un texte sur la mer est complete par « ecoulement » ou « ondulation » de sons.
5 - Cumul de sens par le biais de la performance : l'expression humaine est au centre du travail et de la narration dramatique selon les aspects emotifs de la voix utilisee, cf. L. Berio Visage, de nombreuses œuvres de poetes sonores.
6 - Accumulation de sens par l'extension ou la mise au point semantique : c'est souvent grâce a la transformation, cf. Wisharts Two Women et American Triptych.
7 - Accumulation de sens par association structurale : le sens est renforce par la maniere dont le texte est manipule et structure, cf. techniques utilisees dans la composition des madrigaux. Monteverdi, Ligeti, Crumb, etc.
8 - Cumul de sens par l’accumulation des voix ou du montage : le sens est renforce par la maniere dont les differentes voix sont prononcees, soit le meme mot ou differentes voix qui construisent et renforcent un ensemble. C'est un dispositif tres commun, cf. Glenn Gould The Idea of North.
9 - Retention des sens : les mots sont presentes tels qu’ils ont ete enregistres, sans traitement apparent.
10 - Extraction melodique ou rythmique, translation et elaboration : les melodies et les rythmes de la parole sont extraits et appliques d’une façon differente dans d'autres elements tout au long de la piece, ce qui peut renforcer le sens, mais elle peut egalement etre un dispositif purement abstrait, cf. Steve Reich Different Trains.
11 - Aspect narratif du contenu ou du contexte : un morceau de musique construit autour d'un texte preexistant (parfois bien connu), par exemple, la transformation electroacoustique de la poesie en prose, cf. Berio Thema-Omaggio a Joyce (1958), Paul Lansky Six Fantasies on a Poem by Thomas Campion, ou meme sur un evenement, cf. The Sinking of the Titanic par Gavin Briars.
12 – Guidage narratif : texte parle par une voix connue ou d'autorite, qui guide l'auditeur a travers la piece, cf. Hildegard Westerkamp Kits Beach Soundwalk (1989) ou Janet Cardiff The Missing Voice.
107
13 - Suggestion narrative : les evenements vocaux ne sont pas mis en avant, mais servent a indiquer la presence ou l'activite humaine, cf. Katharine Norman People Underground (1996).
14 - Excitation phonetique : la voix est utilisee pour articuler d'autres sources de resonance, comme dans l'espace architectural d’Alvin Lucier I Am Sitting in a Room (1970) ou comme avec un synthetiseur du type Vocodeur.
15 - Juxtaposition et permutation semantique : Les Mamelles d’Apollinaire ou de l’ordonnancement ou re-ordonnancement des mots dans des pieces telles que Junk is no good baby ou les « cut-ups » de Brion Gysin et William S. Burroughs. L'utilisation par Cage de mesostics dans Roratorio (1979), Song Books (1970) et 63 Mesostics Re Merce Cunningham (1971). Cela peut etre assimile a la synthese granulaire.
16 - Juxtaposition et permutation de mots sans signification, ou invention de mots : Un nouveau langage n’est pas invente, mais de nouveaux mots sont inventes et inseres dans la langue deja existante. Jabberwocky de Lewis Carroll dans Alice à travers le miroir. Christian Morgenstern Kinkajou ‘kroklolwafzi’ (autour 1890), le poeme de Paul Scheerbart ‘kikakoku’ ou encore le poeme sonore d’Henri Chopin Grenouilles d’Aristophane.
17 - Nouvelles langues ou metalangages : les langues sont constituees de façon plausible a partir de phonemes deja existants, cf. Kruchenkykh la poesie Zaum, McClure Beast Language, de Paul Lansky les series de Idle Chatter.
18 - Synthese de la parole generee par ordinateur : par exemple, Charles Dodge et ses experiences sur la parole et sa synthese dans des œuvres telles que Speech Songs (1972), ou un materiau avec du discours genere par ordinateur, par exemple, Paul Lansky Idle Chatter.
19 - Composition de texte dans le cadre du processus de composition : par exemple, Paul Lensky Now and Then (1991) et Things She Carried (1995-1996)
ANNEXE 3 : O Superman– Laurie Anderson (1982)
Paroles et leur traduction
108
Ô Superman.Ô juge.Ô maman et papa.Maman et papa.(x2)
Salut. Je suis pas chez moi maintenant. Mais si vous voulez laisser un message, vous n'avez qu'à parler après le bip sonore. Allô ? C'est ta mèreEs-tu là ?Viens-tu à la maison ? Allô ?Y a-t-il quelqu'un à la maison ?Eh bien, vous ne me connaissez pas, mais je vous connais.Et j'ai un message à vous donner.
Les avions arrivent.Alors vous feriez mieux d'être prêts.Prêts à partir.Vous pouvez venir tels que vous êtes, Mais payez au fur et à mesure.Payez au fur et à mesure. Et j'ai dit : OK. Qui est-ce vraiment ? Et la voix a dit :C'est la main, la main qui prend.C'est la main, la main qui prend.C'est la main, la main qui prend.
Les avions arrivent.Ce sont des avions américains.Fabriqués en Amérique.Fumeur ou non-fumeur ? Et la voix a dit : Ni la neige ni la pluie ni l'obscuritéde la nuit ne doivent empêcher ces coursiers d'efectuer l'accomplissement rapide de leurs tournées. Car quand l'amour s'en est alléIl y a toujours la justice.Et quand la justice s'en est alléeIl y a toujours la force.Et quand la force s'en est alléeIl y a toujours maman.Salut maman ! Alors prends-moi, Maman, dans tes longs bras.Alors prends-moi, Maman, dans tes longs bras.Dans tes bras automatiques.Tes bras électroniques.Dans tes bras.Alors prends-moi, Maman, dans tes longs bras.Tes bras pétrochimiques.Tes bras militaires.Dans tes bras électroniques.
O Superman.O judge.
O Mom and Dad.Mom and Dad.
(x2)
Hi. I'm not home right now. But if you want to leave a message, just start talking at the sound of the tone.
Hello? This is your Mother. Are you there?
Are you coming home?
Hello?Is anybody home?
Well, you don't know me, but I know you.And I've got a message to give to you.
Here come the planes.So you better get ready.
Ready to go. You can come as you are,
but pay as you go.Pay as you go.
And I said: OK. Who is this really? And the voice said:This is the hand, the hand that takes.This is the hand, the hand that takes.This is the hand, the hand that takes.
Here come the planes.They're American planes.
Made in America.Smoking or non-smoking?
And the voice said: Neither snow nor rain nor gloom
of night shall stay these couriers from the swifcompletion of their appointed rounds.
'Cause when love is gone,there's always justice.
And when justive is gone,there's always force.
And when force is gone,there's always Mom.
Hi Mom!
So hold me, Mom, in your long arms.So hold me, Mom, in your long arms.
In your automatic arms.Your electronic arms.
In your arms.So hold me, Mom, in your long arms.
Your petrochemical arms.Your military arms.
In your electronic arms
ANNEXE 4 : Nightcall – Kavinsky (2010)Paroles et leur traduction
109
I'm giving you a Nightcall To tell you how I feel
I want to drive through the night Down to the hills
Im gonna tell you something you Don't wanna hear
I gonna show you where it's dark But have no fear
There's something inside you It's hard to explain
They're talking about you boy But you're still the same
(x2)
Je t'appelle tard dans la nuit Pour te dire ce que je ressens Je veux t'emmener à travers la nuit Au pied des collines
Je vais te dire quelque chose que tu N'as pas envie d'entendre Je vais te montrer où il fait sombreMais n'aie pas peur
Il y a quelque chose en toi C'est dificile à expliquer Les autres parlent de toi, garçonMais tu restes le même (x2)
Le texte entier est répété deux fois.
ANNEXE 5 : Deer Stop – Goldfrapp (2000)
Paroles et leur traduction
110
Le texte de cette chanson n'a jamais été dévoilé par le groupe et il est difficile de le comprendre à l'écoute à cause de l'élocution d'Alison Goldfrapp et des effets appliqués à celui-ci. Il n'est donc pas sûr que la retranscription de ce texte soit exacte. De plus, je n'ai pas pu retranscrire la fin du vers « Don't shoot your stars » tant l'effet est intense sur ce passage. Les mots indiqués par des astérisques sont ceux dont je ne suis pas sûre de la compréhension.
* « Deer » peut aussi s'entendre « Dear » bien que ce mot fasse partie du titre du morceau. En efet, le groupe cultive beaucoup le mythe de l'homme-animal, il pourrait donc s'agir d'un jeu de mot. La phrase se lirait alors, ponctuation incluse, « Dear stop... Bottle in a shell (Chéri arrête... bouteille dans une coquille) », rendant son début encore plus suggestif bien que la fin du vers reste encore mystérieuse.
** « Lust » peut aussi s'entendre « Lush » qui se traduit par « luxuriant » mais aussi par « poivrot » ou par le verbe « se saouler ». Ce vers signifierait alors «poivrot à venir » ou peut-être « saoulerie à venir ». Cela donnerait un nouveau sens à la phrase précédente pouvant alors se comprendre « Dear, stop bottle, in a shell (chéri arrête la bouteille, dans une coquille) ». On peut aussi peut-être considérer « shell » comme étant la contraction de « nutshell », cette phrase signifiant alors « Chéri, en bref, arrête la bouteille ».
And I long to goLove started here
Shoot your starBe a light
Is that
Don't you callDeer* stop bottle in a shell
Shoot your thousand stars over me
Shoot your starsShoot your stars
To scream...
...Lust** to comeYou've arrested in my...
Say my nameWhisper it, don't ever turn
I'm deliciously wiredI'm falling in a cloud
Don't shoot your stars […]Shoot your thousand stars over
Deer stop bottle in a shellShoot your thousand stars over
Say my nameWhisper it
Et j'ai hâte d'y allerL'amour a commencé iciTire ton étoileSoit une lumièreEst-ce (ça)
N'appelle pasL'arrêt du cerf, bouteille dans une coquilleTire tes milles étoiles sur moi
Tire tes étoilesTire tes étoiles(Pour) crier...
...Luxure à venirTu t'es arrêté dans mon...
Dis mon nomMurmure-le, ne te tourne jamaisJe suis délicieusement câbléeJe tombe dans un nuage
Ne tire pas tes étoiles […]Tire tes milles étoiles
L'arrêt du cerf, bouteille dans une coquilleTire tes milles étoiles Dis mon nomMurmure-le
ANNEXE 6 : Captures d'écran des réglages des modules Izotope RX pour le morceau
Brained
Reglages du De-noise 1 place sur les deux premiers coupletsCe De-noise est celui qui amène l'élocution la plus naturelle mais qui comporte
beaucoup d'aigus, j'ai donc réglé ces paramètres pour minimiser cet aspect. La fonctionLearn n'est pas enclenchée. Les courbes de seuil du bruit et du signal utile(respectivement en jaune et orange) sont modulées par la courbe de réduction (en bleu).Le gain d'entrée est au maximum et le threshold au minimum. La valeur de réduction estchoisie pour obtenir une sorte d'équilibre. La taille de la FFT est de 200ms.
111
Dans la seconde fenêtre correspondant au réglages avancés, “Smoothing”contrôle la réduction du “Musical noise” (bruit musical, ou plutôt artéfacts tonaux, ceparamètre est sélectionné avec le curseur “Artifact control”). “Synthesis” permet desynthétiser des harmoniques aiguës au signal en sortie, mais il agit aussi étrangement surle signal retiré. “Enhancement” renforce les harmoniques naturelles du signal (et du bruitretiré). “Masking” diminue la réduction du bruit dans les zones où il est masqué grâce àun modèle psycho-acoustique. “Whitening” permet de rapprocher la courbe du seuil debruit résiduel de celle du bruit blanc. Tous ces paramètres agissent sur le spectre durésidu que je vais obtenir, je les règle donc en conséquence. Néanmoins, la plupart de cesajustements sont réalisé un peu au hasard car je teste les positions des curseurs au fur età mesure et n'y touche plus lorsque la texture en sortie me plaît. Leur action sur le son esttrès modérée contrairement aux paramètres décrits précédemment.
Le “Knee” et “Release” jouent sur la transition entre le moment où le signal estintact et celui où le programme commence à en extraire du bruit. Un “Knee” plus élevépermet de retirer du bruit avant même que le signal ne dépasse le seuil et le “Release”définit le temps de relâche lorsque le niveau de bruit revient sous le seuil. Dans monusage détourné, le “Release” va gérer l'extinction du son et le “Knee” va avoir uneinfluence sur l'attaque mais aussi son contenu spectral.
112
Reglages du De-noise 2 place sur les deux premiers coupletsCe De-noise est celui qui transforme le plus le son mais rend l'élocution
dificilement audible. La fonction “Learn” est enclenchée, les gains d'entrée et de sortiesont à leur maximum, tout comme la réduction. Le “Threshold” est quasiment au plusbas. La taille de la FFT est de six millisecondes. Le “Knee” est à son maximum et le“Release” au minimum, ce qui amplifie l'étrangeté de l'élocution. Des valeurs plus élevéesde “Masking” et le “Whitening” auraient rendu le son plus naturel.
113
Reglages du De-Click place sur les deux premiers coupletsL'algorithme est ici celui de la détection de clics aléatoires multibandes. Le gain
d'entrée, la sensibilité et le “Click widening” sont au plus haut, le résidu obtenu est doncplutôt continu. Le biais fréquentiel augmente légèrement la détection des clics à bassefréquence, donnant un rendu plus naturel.
Reglages du De-Click place sur le deuxième refrainL'algorithme est maintenant celui de la détection de clics aléatoires à bande
simple. La sensibilité et le gain d'entrée sont à leur maximum. Le biais fréquentiel n'a plusd'influence avec ce type d'algorithme. Le “Click widening” est cette fois beaucoup plusfaible, ce qui explique l'impression d'entendre de très courts clics de saturation.
114
Reglages du De-Clip place sur le dernier coupletLe gain d'entrée est au plus haut, la détection de la saturation se produit à partir
de -39 dBFS.
Reglages du De-Clip place sur le dernier coupletLe gain d'entrée est au plus haut, la détection de la saturation se produit cette fois
dès -61,5 dBFS, ce qui explique le renforcement de la dégration du son.
115
ANNEXE 7 : Questionnaire proposé au public
116
1. Êtes-vous ingénieur du son ? [oui/non]
2. Êtes-vous musicien ? [oui/non]
3. Quel âge avez-vous ? [fenêtre à compléter]
4. Écoutez-vous de la musique électronique ? [jamais/rarement/de temps en temps/ fréquemment]
(Un lecteur permet d'ecouter ma partie pratique de memoire)
5. Que pensez vous de ce morceau ? (de 0 : "je n'ai pas du tout aimé" à 10 :"j'ai vraiment adoré") [barème de 0 à 10]
6. Quelles émotions ressentez-vous à l'écoute de ce morceau ? (Par exemple : joie, inquiétude, nostalgie, optimisme, tristesse,...) [fenêtre à compléter]
7. Pourriez-vous expliquer quel(s) élément(s) de ce morceau vous ont conduit à ressentir ces émotions ? [fenêtre à compléter]
8. À votre avis, qu'apporte l'ajout de l'efet sur la voix à ce morceau ? [fenêtre à compléter]
9. D'après vous, qu'est ce que l'ajout de l'efet sur la voix retire à ce morceau ? [fenêtre à compléter]
10. Cela vous fait-il penser à un autre morceau ou à un autre musicien ? Si oui, lequel ou lesquels ? [fenêtre à compléter]
11. Auriez-vous un dernier commentaire à faire à propos de cette création ? (ce qui vous a le plus ou le moins plu, un élément qui vous a intrigué, une remarque, une question...) [fenêtre à compléter]