ACCUEIL RECHERCHE JEUX-CONCOURS CONCERTS FORUM CONTACT
Recherche
  Recherche rapide
 
Archives de A à Z
Recherche Avancée...
Catégories
  Variété Internationale Variété/Chanson Française Jazz/Blues/Country Rock/Metal
Groove/Funk
Pop/Disco
Electro/TripHop Techno/Dance HipHop/Ragga/Reggae Soul/R’n’B
Latin/Afro-cubain Traditionnel/Gospel World/Fusion Classique/Contemporain Film/Bande Son Compilation/Multi‑Genre Inclassables...
Communiquer !
 
Inscription à la Newsletter
 
Désinscription
Annonces Concerts
Petites Annonces
Forum
Amb France
  Aide
Contact
Webmaster
Liens
  Artistes
Labels
Radios Online
Resources Musiciens
Sites mp3
Structures
Studios
Webzines
Ajouter un site
Ajouter un studio
Partenaires
  COLUMBIA
EMI
EPIC
F COM
LABELS
NAIVE
PIAS
WAGRAM
WARNER JAZZ
WEA
...
Publicité/Promo
  Devenir Annonceur Opérations Promotionnelles

Michel Geiss

Michel Geiss

Électronicien de formation, musicien, compositeur, "luthier électronique" à l'origine des matriséquenceurs que l'on peut entendre sur certains albums de Jean-Michel Jarre – dont il fut longtemps le plus proche collaborateur –, Michel Geiss est un « personnage » du monde de la musique et de l’audio-visuel, qui a su se forger une belle réputation comme ingénieur de mastering. À son actif, un palmarès étourdissant : Michel Jonasz (quatre albums masterisés), Michel Sardou, La Compagnie Créole, Catherine Lara, Trust, Lio, Marc Lavoine, le label Arcana (musique baroque), le remastering de la version originale de Starmania (1978), et, plus récemment, les derniers Patrick Bruel « Juste avant » et « Bruelive » et le dernier Laurent Voulzy « Avril »...

Michel Cœuriot, compositeur, arrangeur et réalisateur pour de grands noms de la musique, évoque Michel Geiss en ces termes : « J'adore Michel... Travailleur, perfectionniste, très fort techniquement, avec un propos modeste... vraiment une crème d'homme. ». Et nous avons pu vérifier ces dires ! L’ultra-compétence et la polyvalence de Michel Geiss n’ont pas eu raison de sa gentillesse : il a accepté de nous accorder de son précieux temps pour répondre à nos questions…

Jean-Marc F. : Qu’est-ce qui vous a amené à devenir ingénieur mastering ?

Michel Geiss : C’est une question qui nécessite un petit retour en arrière, car c’est une profession que j’ai abordée d’une manière complètement "non-conventionnelle" : je suis entré dans ce métier par une porte tout à fait spéciale : celle du studio de Jean-Michel Jarre. Notre collaboration a commencé en 1976, à la suite d’une conférence que j’avais donnée sur la synthèse analogique qui était en train de débuter, à ce moment-là. Il m’a engagé à ses côtés pour l’album « Oxygène », et nous avons continué à travailler ensemble longtemps, collaboration arrêtée il y a environ cinq ans.

Ce qui m’a amené à prendre ce premier chemin était avant tout mon goût pour la musique électronique, qui est ma première passion. J’étais d’abord électronicien, et musicien également, et les deux se sont très bien mélangés… J’étais attiré par la magie des sons électroniques, qui pour moi ont toujours eu un pouvoir d’évocation, de rêve, bien plus puissant que celui des instruments acoustiques. J’ai donc d’abord fait ce qu’on pourrait presque appeler une "carrière" autour des synthétiseurs et de la musique électronique.

La fin de ma collaboration avec Jean-Michel Jarre a été une opportunité pour me diriger vers d’autres choses, et j’ai décidé de faire du mastering après avoir pris la responsabilité de superviser ce travail pour Jean-Michel Jarre : j’allais aux Etats-Unis dans les meilleurs studios de mastering, je voyais les grands travailler, comme Greg Calbi ou Ted Jensen, et je me suis senti motivé et capable de le faire moi-même.

J’ai sauté le pas il y a plusieurs années, et j’ai abordé ce métier d’une toute autre façon, très personnelle, avec des chanteurs et chanteuses, un univers que je ne connaissais pas du tout… Ça m’a d’ailleurs beaucoup intéressé, et je suis même devenu – je dirais, sans me vanter particulièrement – assez spécialisé sur le traitement des voix : dans le dernier album de Laurent Voulzy, le réalisateur, Michel Cœuriot, m’a demandé de traiter les voix en fin de projet, juste pour l’aboutissement des mixages. J’ai pris goût maintenant, c’est vrai, en dehors de mon passé dans la musique électronique et de ma passion pour elle, au domaine de la chanson…

Comme je le disais, mon approche du mastering est très particulière. Je considère que le mastering est un vrai prolongement du mixage, et en dépend étroitement. C’est pour cette raison que je ne vois pas de vraie frontière entre les deux. Je suis d’ailleurs souvent avec les ingénieurs ou les artistes en fin de mix, là où ils travaillent, moment où commence ma participation. J’exerce ce métier de façon absolument non conventionnelle, puisqu’à de rares exceptions près, je ne reçois pas les clients sur place. D’ailleurs, qui peut être certain de ressortir d’un studio de mastering avec le résultat souhaité ? Les écoutes sur place étant très souvent différentes de celles qui ont servi au mix, impossible de se rendre compte ! On doit donc de toute façon s’en remettre à l’habitude de l’ingénieur de mastering et à ses goûts. Anecdote : il m’est arrivé plusieurs fois de refaire des masterings d’abord demandés à Metropolis (Londres), où la haute qualité de l’environnement technologique et des haut-parleurs n’avaient pourtant pas permis d’atteindre le même résultat.

J.-M. F. : Dans la période où vous étiez très axé sur les instruments électroniques, suiviez-vous les travaux de gens comme Max Mathews (pionnier américain de la synthèse numérique, aux Bell Laboratories, ndla), c’est-à-dire de ces chercheurs, de ces universitaires dont les trouvailles ont en premier lieu inspiré la musique "contemporaine", avant de trouver un essor tout à fait particulier dans la musique dite "populaire" ?

M. G. : Oui, tout à fait. C’est vrai qu’en musique électronique, il y a eu deux démarches, essentiellement : la démarche universitaire, et la démarche "grand public" qui était aussi celle des musiciens. La démarche de Max Mathews était celle d’un chercheur universitaire, comme ce qui peut se faire dans les centres de recherche tels le CCRMA de Stanford ou l’IRCAM à Paris. Ce sont des recherches qui font beaucoup avancer les connaissances dans le domaine de la synthèse, mais qui restent en même temps très difficiles à aborder pour l’essentiel des musiciens. Des travaux sont toujours en cours dans ces institutions, d’où sont tout de même sorties des inventions grand public comme la FM ou la modélisation physique, utilisée par Yamaha dans sa série VL.

Cependant, beaucoup de travaux issus de ces centres de recherche restent obscurs : par exemple le logiciel Music V, initié par Max Mathews. Maintenant, C-Sound lui succède, qui reste "universitaire", mais qui, malgré des développements de son interface graphique et la possibilité de générer le son en temps réel qui le rendent un peu plus utilisable, reste tout de même un peu obscur… Rappelons qu’au début des travaux de Max Matthews sur la synthèse, pour entendre le moindre son, il fallait attendre qu’il soit calculé par l’ordinateur. Et quand je travaillais à l’IRCAM, dans les années 70, pour une composition musicale d’une minute ou deux, le compositeur mettait au travail l’ordinateur le soir et revenait écouter le résultat le lendemain matin ! C-Sound est une démarche intéressante, mais quand j’ai la chance de faire de la musique, comme lorsque j’ai créé la série de projets pour Gaumont, je fais partie de ceux qui n’ont pas assez de temps à y consacrer, avec ces algorithmes dans lesquels il faut entrer des paramètres complexes et des instructions, une approche relativement éloignée du geste musical.

En parallèle avec ce contexte universitaire et sérieux, beaucoup de développements voyaient le jour, notamment ceux de Robert Moog, le véritable initiateur de la synthèse populaire (inventeur du célèbre Minimoog, en 1969-70, ndla) – que j’ai eu l’honneur de rencontrer à Frankfort, au Musikmesse, présentant son synthétiseur Voyager – et tous les industriels ont fait considérablement avancer la musique électronique. Sur un plan plus général, je dirais pourtant que les fabricants ont eu tendance à favoriser de plus en plus l’aspect "commercial" et "grande diffusion" des instruments électroniques. Et la synthèse, qui était au départ un mode d’expression et de création bien à part, est entrée dans un domaine de banalisation, par son utilisation massive.

On observe depuis peu qu’un phénomène inverse se produit, grâce au développement des instruments logiciels. Des programmes comme Reaktor, de Native Instruments, ou le très étonnant Virsyn, que j’ai vu en version récente à Frankfort, constituent un apport considérable à la synthèse, et constituent une véritable alternative aux options prises par les fabricants de synthétiseurs hardware, qui depuis quelques temps, il faut bien le dire, n’innovaient plus vraiment.

Aujourd’hui les coûts de développement logiciels sont tellement plus légers que ceux du hardware, qu’il est très nettement plus facile de tenter une aventure, de prendre des risques, de proposer un nouvel instrument virtuel…




Patrice B. : Est-ce que justement vous ne pensez pas que ce développement logiciel rend les choses plus faciles à appréhender par un musicien ? Par exemple, Yamaha vient de sortir son logiciel de modélisation FM-7, inspiré par son DX-7, où tous les paramètres sont accessibles et configurables à partir du même écran…

M. G. : Oui et non. C’est vrai que dans ce cas précis, l’éditeur que l’on pouvait acquérir séparément pour son DX-7 est directement inclus dans le FM-7, et tous les paramètres sont là, sur l’écran… C’est un gros avantage, on voit tout directement, on peut éditer et mettre les paramètres facilement en mémoire, sans besoin de disquettes ou de cartes-mémoires.

Par contre, le contact physique avec l’instrument est à mon avis irremplaçable : c’est très différent d’être en face d’un ordinateur ou d’un « vrai » synthétiseur. Il n’y a pas la même attirance, je dirais. Et je suis convaincu que cela joue un rôle dans l’approche créatrice, dans l’envie qu’on peut avoir de travailler avec un instrument, même si c’est juste une boîte en métal. Pour moi, il y a une « libido » musicale, un besoin de contact physique direct avec ce qui produit les sons. On assiste même depuis quelques temps à l’arrivée de versions hardware de logiciels, plus attrayantes que la vue d’un plug-in dans Pro Tools – ou dans un séquenceur logiciel…

Mais j’aurais bien du mal à être catégorique, voyant à quel point le monde du logiciel a évolué. J’avoue que je me laisse séduire par des merveilles comme les instruments virtuels dont nous venons de parler, ou comme des logiciels comme Logic Audio, Cubase ou Digital Performer. On appelle ces derniers des « séquenceurs », mais en réalité, c’est bien plus que cela. Je les qualifierais plutôt d’ « environnements musicaux créatifs virtuels ».

J.-M. F. : Personnellement, en tant que « musicien utilisateur de technologies », est-ce que vous privilégiez plutôt l’aspect intuitif dans un logiciel, ou bien est-ce que vous aimez aller tout de suite regarder ce qui se passe en tâche de fond ?…

M. G. : Je trouve que l’intuitivité a vraiment été mise à mal depuis plusieurs années. Particulièrement quand on a commencé à avoir des menus sur les synthétiseurs, dans de toutes petites fenêtres, alors qu’au départ les synthétiseurs étaient riches en réglages… D’ailleurs, j’ai conservé un vieil ARP 2600 (d’ARP [!], ndla). C’était totalement différent de créer des sons sur ces instruments-là, par rapport à cette approche très cérébrale qui consiste à régler des paramètres sur un ordinateur. Un certain nombre de barrières s’interposent dans l’esprit… L’un des compromis intéressants, c’est l’adjonction de commandes réelles (et non pas de « contrôles », comme on le dit trop souvent de façon erronée), aux écrans d’ordinateurs. Pro Tools, Logic Audio ou Cubase se sont vus compléter par des consoles très ergonomiques.

Je me souviens des trouvailles nocturnes avec Jean-Michel Jarre sur ses premiers albums Oxygène et Equinoxe, des moments de créativité sonore, vers deux ou trois heures du matin. Des idées "originales" arrivaient alors, qui ne nous seraient sans doute pas venues à l’esprit en pleine journée. Je crois d’ailleurs que des relations existent entre l’état physique dans lequel on se trouve et la créativité : c’est une thèse qui m’intéresse. Je ne sais pas si d’autres le pensent aussi, mais je crois que si le fait de voir beaucoup de musiciens créer la nuit est si répandu, c’est sans doute parce qu’il s’agit d’un moment où l’on est plus proche de son subconscient. On devrait théoriquement être en train de rêver, selon nos horloges biologiques. Mais celles-ci continuent pourtant à fonctionner en « tâche de fond » et nous conduisent malgré tout automatiquement à un certain état, situé à mi-chemin entre l’éveil total et le sommeil profond. Je suppose donc qu’on est donc certainement plus créatif en restant éveillé à ces instants-là. Et là, l’intuitivité est essentielle : on n’a pas envie de raisonner, d’avoir des chiffres devant les yeux, ou de l’abstraction. On a besoin de s’appuyer sur du concret pour être intuitif – et donc créatif – il me semble…

J.-M. F. : Toujours sur ce problème de l’intuitivité et de la créativité, je ne sais plus quel agent artistique d’un grand label se plaignait récemment de recevoir des maquettes absolument impeccables – techniquement très propres sur le plan de l’enregistrement, de la synchronisation, du mixage etc. – mais qui finalement misaient tout sur cette qualité de réalisation offerte par l’informatique domestique actuelle, au détriment de la créativité et de la musicalité mêmes. À tel point qu’il en venait à regretter les vieilles maquettes quatre-pistes sur cassettes audio : grésillantes, mal enregistrées et mal calées, mais parmi lesquelles il parvenait à déceler de belles idées qu’il serait possible de retravailler ensuite…

M. G. : Je trouve ça très juste et très intéressant, même. C’est une question brûlante d’actualité. La perfection est à la portée de tout de monde aujourd’hui : l’équipement coûte aujourd’hui largement moins cher qu’il y a 25 ans (Oxygène était enregistré sur un huit pistes !). Avec des outils vraiment excellents, on dispose à peu de frais d’un studio de très haute qualité pour faire des productions complètes…

La grande question – tout ce que l’on est en train de dire est très philosophique, mais je crois que c’est très actuel – est de savoir effectivement jusqu’où il faut aller dans l’approfondissement d’une idée, et à quel moment il faut savoir se limiter. Et qu’est-ce que la perfection, justement ? Quelque chose d’un peu "jeté", d’un peu intuitif, peut être beaucoup plus intéressant émotionnellement ou artistiquement qu’une réalisation "hyper-produite", où tout a été peaufiné avec une recherche de perfection.

C’est là le piège, à mon avis : on est en train d’avoir de plus en plus de possibilités pour obtenir cette perfection. Pro Tools est là, aujourd’hui, et très peu d’artistes sont d’accord pour faire un enregistrement sans passer par lui pour faire des modifications : la voix un petit peu fausse à tel ou tel endroit, et un coup d’Autotune (d’Antarès, ndla)…, une mise en place un peu bancale par là, et on recale à la milliseconde près, etc… On peut de plus en plus entrer dans le moindre des détails, et on pourrait passer maintenant des semaines ou même des mois sur une production pour trouver toujours mieux à faire, puisque la technologie le permet. À l’époque où elle était limitée, on était obligé de s’en tenir à un minimum, où par obligation, la spontanéité avait une meilleure place, de même que l’implication personnelle des interprètes.

P. B. : Jean-Michel Jarre est quelqu’un d’ultra-perfectionniste, qui n’hésite pas à refaire quarante mixes du même morceau s’il trouve la moindre possibilité d’amélioration : concernant la période à laquelle vous travailliez avec lui, est-ce que ce n’est pas un peu paradoxal par rapport à ce que vous venez de dire ?…

M. G. : Certes…. Et il est vrai que cela va un peu à l’encontre de ce que je viens de dire. C’est aujourd’hui envisageable de faire autant de versions d’un mix qu’on le souhaite avec les automations. Mais à l’époque d’Oxygène ou d’Equinoxe, le contexte technologique était très différent, tout était plus difficile, et par conséquent, on se contentait plus facilement de compromis, où l’ « imperfection » avait sa place (et donc l’humain). Par exemple, il était quasiment impossible de mixer seul. On se mettait donc à plusieurs à la console, et chacun gérait les pistes qui lui étaient attribuées. Il s’agissait donc de véritables performances de groupe, et les erreurs d’un seul d’entre nous pouvaient nuire au travail des autres.

Quand on a fait les enregistrements d’« Oxygène » ensemble, il n’y avait ni séquenceur, ni MIDI, tout était imprimé en live sur le magnéto ; les sons étaient programmés manuellement, et il n’y avait pas de mémoire pour les stocker ! Il y avait davantage cette sensation d’instantanéité, qui nous impliquait plus fortement et plus immédiatement dans ce qu’on faisait. Sans être passéiste, l’attitude d’aujourd’hui consiste à considérer – même si on ne se le formule pas directement – que l’on peut toujours tout refaire et tout améliorer par la suite. Par conséquent, le geste musical a de moins en moins d’importance. Et d’ailleurs, pour les musiciens, c’est de plus en plus le cas : on dispose plus en plus en plus de moyens sophistiqués pour corriger une performance musicale "acoustique".

Concernant cette question sur la recherche de la perfection, le matériel ayant évolué au fur et à mesure des albums, Jean-Michel Jarre n’a pas échappé à la tendance générale. Il s’en est servi, tout comme les autres, pour essayer d’atteindre un idéal. Cela dit, il n’est pas isolé. J’ai rencontré, après lui, des gens qui occupent le devant de la scène par leur notoriété – comme Michel Sardou, Marc Lavoine, Patrick Bruel, récemment Laurent Voulzy –, qui sont tous des gens très exigeants sur le résultat, et très exigeants avec eux-mêmes, donc quelque part très perfectionnistes. Depuis un moment, l’écart s’est creusé entre la performance live et le produit très sophistiqué de studio. Peut-être qu’en filigrane, on peut y voir la différence entre l’éphémère d’un concert, et l’éternel d’un disque…

P. B. : Pouvez-vous nous expliquer en quoi la sensibilité d’un artiste peut se ressentir à travers l’étape du mastering ?

M. G. : Le mastering, c’est la fin d’un processus, sa conclusion : c’est un moment où on dépend totalement du mixage, et c’est là qu’on peut entendre une sensibilité artistique. Quand on parle de studio personnel ou de home-studio, le mixage est fait souvent par les artistes eux-mêmes qui de plus en plus, achètent leur propre matériel et font l’enregistrement et le mixage à la maison. Pour faire un bon mixage, il faut, en plus d’être garant du contenu artistique, avoir le goût de l’orchestration sonore, une sensibilité supplémentaire : le mixage, c’est un travail de musique, ni plus ni moins ! Savoir bien mélanger les sons les uns avec les autres, mettre les différents éléments à leur bonne place dans un ensemble de sons…

Dans le cas d’un orchestre symphonique, les instruments ont d’emblée leur place, le mixage est fait directement, pour ainsi dire. C’est par contre un processus totalement artificiel dans l’enregistrement de chansons, d’autant plus si les accompagnements proviennent de sources électroniques, qu’ils n’ont pas directement de réalité acoustique ni de position acoustique.

Juste un petit exemple : très souvent, les sons électroniques ont trop de graves pour un mixage harmonieux. Si vous prenez une contrebasse acoustique avec un micro, ces graves sont naturellement limités – sauf si vous faites une prise très proche, en favorisant le phénomène de proximité. Avec les instruments électroniques, on n’a pas cette "autocensure" spectrale. Et on doit être soi-même très vigilant pour se dire : « Là, trop de graves, j’en retire », et savoir quoi retirer…

La sensibilité artistique doit être présente à tous les niveaux avant le mastering. En tant que masteriseur, je reçois de tout. Et je constate souvent que même avec peu de moyens, on peut faire un travail très élégant. Je travaille avec beaucoup de petits producteurs – je ne fais pas que gagner ma vie avec des gens très connus. Je suis souvent en relation avec des indépendants aussi bien de la région parisienne que de la province, qui font presser cinq cents, mille disques, des petites productions très intéressantes, et pleines d’enthousiasme. Je pense d’ailleurs que cette activité des petits producteurs est très utile pour la musique en général.

Quoi qu’il en soit, mon rôle est de tirer le meilleur de ces travaux, que les mixages soient réussis ou fassent preuve de moins d’expérience.

P. B. : Est-ce que vous pouvez nous donner une définition de ce qu’est un ingénieur mastering, de ce à quoi il sert dans l’industrie du disque ?

M. G. : En quelques mots – même s’il y aurait beaucoup plus à dire : l’ingénieur de mastering, c’est celui qui est le garant du son global d’un disque, dans le contexte de ce que le public trouve dans les magasins… Il est le créateur du son final d’un disque.

L’une des interventions concerne le volume sonore gravé. Quand un disque est "moins fort" qu’un autre, automatiquement, on a la sensation qu’il est moins bon, ce qui bien sûr n’est pas forcément le cas. Mais il n’empêche qu’un CD à un niveau trop faible, donne une impression d’amateurisme.

Mais le mastering concerne aussi la couleur sonore générale : trop de graves, ou d’aigus, ou bien des médiums incorrects, peuvent aussi nuire à la qualité ou au plaisir de l’écoute. Lors des mixages, certains travaillent avec des enceintes trompeuses, et ils se rendent compte à l’extérieur que le résultat est très différent de ce qu’ils espéraient. A nous de nous rendre compte de ce « décalage » timbral d’un mixage et d’y remédier.
        Un autre rôle essentiel de l’ingénieur de mastering est de décider des traitements appropriés pour qu’un mix soit intéressant dans des conditions d’écoute moyennes – mini chaînes, niveau d’écoute réduit – un vaste problème et un compromis difficile !


En gros, l’ingénieur de mastering a pour devoir de mettre le plus possible en valeur le travail du mixage, et de le rendre le plus proche possible de la production générale, dans un certain style musical, bien sûr. En réalité, la quantité d’options possibles fait de ce travail de « look sonore » une intervention artistique.

J.-M. F. : C’est très intéressant : vous utilisiez les termes d’ « orchestration sonore », ce qui met en avant l’aspect vraiment musical que doit avoir en permanence à l’esprit tout ingenieur de mastering qui se respecte, dans la mesure où c’est finalement entre ses mains que repose la "crédibilité sonore" du produit final.

M. G. : Bien sûr, mais évidemment le terme d’ « Orchestration sonore » est plus approprié pour l’étape du mixage, comme on l’a dit précédemment. J’ai d’ailleurs un petit problème, au contraire de l’ingénieur de mastering qui n’a pas fait de mixage – puisque j’en ai fait, notamment celui de l’album « Chronologie », ou encore « Hong-Kong » de Jean-Michel Jarre – je trouve un peu frustrant d’entendre des améliorations possibles dans un mix alors qu’il est trop tard. Ça demande une certaine dose d’humilité pour en tirer le meilleur, malgré cette envie inassouvie de faire soi-même quelques améliorations.

Mais je maintiens les termes que j’ai utilisés tout à l’heure d’ « orchestration sonore » : pour moi l’ingénieur du son de mixage – qui n’est pas toujours le même que celui de l’enregistrement dans les gros projets – est un véritable chef d’orchestre sonore. D’ailleurs, certains ingénieurs comme Bob Clearmountain, entre autres, ne font plus d’enregistrement : ils s’occupent uniquement des mixages. Ils estiment que c’est là leur part de créativité – ce que je comprends très bien.

Lire la suite...
Si vous souhaitez réagir à cet article, cliquez ici !

Semaine du Lundi 29.04.2002

Avertissement | Partenaires | Recrutement | Contact | Confidentialité des Données Personnelles
1999 - 2017 © Amb France Music - GROUP. IMAGES 2. Tous droits réservés