Instrument de musique électronique

Instrument de musique électronique

Un instrument de musique électronique est un instrument de musique qui utilise un ou plusieurs circuits électroniques pour produire des sons.

L’histoire des instruments de musique a suivi l’histoire de l’évolution des technologies :

  • Il y a d’abord eu l’instrument acoustique utilisant l’énergie mécanique produite par l’homme, véhiculée et transformée par d’autres systèmes mécaniques. Ses capacités musicales sont le résultat d’une succession de découvertes et d’amélioration empiriques.
  • Arrive ensuite l’instrument électromécanique qui, grâce à la maîtrise de l’électricité et la découverte du moyen de convertir l’énergie mécanique en énergie électrique, va donner le microphone. On en trouve l’application, par exemple, dans la guitare électrique.
  • L’instrument électro-analogique est le résultat d’une meilleure connaissance de la nature et de la constitution des ondes sonores que l’on va chercher à reproduire avec des générateurs électroacoustiques, c’est l’ère du synthétiseur.
  • La possibilité de convertir toute information sonore en un fichier numérique permet son traitement par l’ordinateur, ce qui a abouti à l’étape actuelle de la modélisation instrumentale.

Instruments acoustiques

De la même manière que l’outil a été une extension des possibilités offertes directement par le corps humain, l’instrument de musique vient compléter et étendre les possibilités sonores de la voix.

Cette étape, la plus ancienne dans la facture instrumentale, se caractérise par la recherche de procédés qui utilisent les vibrations physiques de corps solides. Des dizaines de générations d’artisans chercheront d’une manière empirique les moyens d’améliorer la qualité et la puissance de leurs instruments.

Tous les instruments acoustiques se composent de trois éléments :

  • Un corps matériel pouvant vibrer dans les fréquences audibles par l’oreille humaine (corde, colonne d’air, lame de bois, de métal, membrane) ;
  • Un système quelconque qui permet au musicien de le mettre en vibration (doigt, bouche, anche, clavier, archet, plectre, etc.) ;
  • Un matériau mécaniquement lié à l’élément vibrant, et qui, en entrant en résonance avec lui, amplifie la vibration (caisse de résonance, pavillon, tuyau, etc.).

Instruments électro-mécaniques

Un studio de musique électronique en 1965

Article détaillé : instrument électromécanique.

En remplaçant le résonateur par un amplificateur et un haut-parleur, l’oscillateur restant mécanique, on crée l’instrument électro-mécanique. On parle aussi d’instruments de musique électriques. Dans ce type de système un capteur électromagnétique (microphone ou autre type de capteur) transforme les oscillations périodiques du vibreur matériel en un courant électrique oscillant, traité ensuite par un amplificateur et éventuellement des filtres pour aboutir à un haut-parleur.

Ces inventions sont à l’origine de la plupart des instruments apparus dans les années 1950, caractéristiques de la musique populaire : la guitare électrique, l’orgue Hammond à roues phoniques, le piano Fender. Grâce aux systèmes de sonorisation on assiste alors à une augmentation considérable des puissances acoustiques délivrées : de très petites formations de trois, quatre ou cinq musiciens peuvent facilement se faire entendre dans de très grandes salles.

Instruments électro-analogiques

Ce sont des instruments où l’on a éliminé le vibreur physique pour le remplacer par des générateurs électroniques oscillants — oscillateurs — qui produisent directement un signal électrique périodique. Ces générateurs sont d’abord à base de lampes, selfs, condensateurs, puis à base de transistors et enfin à base de circuits intégrés. Ces signaux sont combinés, modulés entre eux, traités par divers filtres et circuits pour s’efforcer de se rapprocher de la richesse et de la complexité des sons produits par les instruments mécaniques ou électromécaniques.

Lorsqu’on arrive à décomposer un son et à analyser ses constituants (les harmoniques, les partiels et les bruits non périodiques), sa hauteur ou fréquence, son mode d’apparition et de disparition — qu’on appelle enveloppe —, on a naturellement cherché à créer des appareils qui, reproduisant ces paramètres, permettent à l’utilisateur de les modifier à sa convenance : C’est ainsi qu’ont été inventés les premiers synthétiseurs sonores dits « numériques».

Instruments numériques (I.A.)

Nouvelle génération d’instruments de musique électronique (2012).

En 2012, l’électronique et l’informatique ont permis la création d’une nouvelle génération d’instruments de musique. Dotés ou non de connaissances musicales, leurs utilisateurs peuvent créer des mélodies en parfaite harmonie (tonale ou modale) avec une orchestration choisie au préalable1. Le dispositif fonctionne grâce à un système informatique « intelligent » basé en partie sur les contraintes et les aléas, il joue des sons échantillonnés, le son de la mélodie de la première version étant celui d’une guitare. Pendant l’écoute de l’accompagnement musical et dès lors qu’une touche de l’instrument est actionnée, le programme embarqué détermine en temps réel la hauteur de note (voire le groupe de hauteurs de note) à jouer. L’utilisateur impose ainsi la partie rythmique de la mélodie et le système informatique prend en charge la partie harmonique2.

Instruments numériques

Un variophone (1979)

Apports de l’informatique

Bien que continuant d’être des synthétiseurs analogiques, on a commencé à utiliser les technologies de l’information pour mémoriser et reproduire les réglages du synthé d’une manière précise et automatique :

  • Réglages des hauteurs de notes (auparavant les séquenceurs analogiques basés sur le VCO -oscillateur contrôlé par voltage- produisaient des notes « approximatives », la hauteur pouvant dériver avec la température) ;
  • Réglages des sonorités, car au fur et à mesure que les synthétiseurs se perfectionnaient et se complexifiaient en boutons et contrôles de toute sorte, leur gestion « en direct » au cours de l’exécution d’un morceau devenait de plus en plus difficile, voire impossible (d’où la séparation entre synthé de scène utilisable en live et synthé de studio nécessitant du temps pour passer d’un timbre à un autre).

Chaque ensemble de réglages devenant un « son » du synthétiseur, et chaque musicien pouvant fabriquer les siens, copier ceux d’un collègue équipé du même appareil a nécessité la mise au point d’interfaces et de protocoles de transferts de données. C’était un problème nouveau auquel on a trouvé des solutions se rapprochant de plus en plus de celles utilisées pour le stockage de données des ordinateurs : on a commencé à créer des banques de sons d’abord stockées sur disquette puis sur carte à puce mémoire et sur cédérom.

Comme tous les fabricants ont été confrontés aux mêmes nécessités, ils se sont entendus pour créer une norme qui devait permettre aux instruments de marques et de modèles différents de communiquer entre eux. Ce qui a abouti à la définition du protocole de communication MIDI (Musical Instrument Digital Interface) qui comportait pour tous les appareils une partie commune et une partie propre à chaque modèle d’instrument.

Article détaillé : MIDI.

Naissance du home studio

Rapidement, les constructeurs de synthétiseurs les ont équipés d’interfaces et de connecteurs MIDI favorisant la communication entre eux, notamment en pouvant utiliser un clavier pour en piloter un autre. Le MIDI a ouvert la possibilité de mettre sur le marché des synthétiseurs sans clavier appelés « expandeurs », plus économiques, chaînables à volonté et pilotables par un clavier maître.

Les messages utilisés et transmis étant des codes numériques, c’est tout naturellement que l’on a développé leur traitement à l’aide de logiciels informatiques. Le premier ordinateur personnel équipé d’une interface MIDI sort en 1985 sous la marque Atari. Avant l’explosion des compatibles PC et des Macintosh, l’ordinateur Atari s’était imposé comme l’outil incontournable des musiciens modernes.

En même temps que les logiciels d’aide à la création de sonorités sur les synthétiseurs complexes, apparaissent les séquenceurs. Ces logiciels permettent d’écrire, composer et mémoriser des séquences de notes, c’est-à-dire des œuvres musicales, que l’on peut manipuler, transformer et améliorer directement sur ordinateur.

Un seul individu travaillant avec un ordinateur, quelques synthétiseurs, boîtes à rythmes et appareils d’effets, cumule les fonctions de compositeur, arrangeur, interprèteet ingénieur du son. La qualité artistique de son travail cesse d’être tributaire de cette chaîne d’intervenants extérieurs, et ne dépend plus alors que de son talent personnel et des machines dont il dispose. En outre, il peut facilement produire des « maquettes » avant l’enregistrement définitif dans un studio professionnel dont la justification se limitera de plus en plus à posséder certains appareils très performants et très coûteux, et à procéder aux enregistrements des voix et « vrais » instruments que le compositeur souhaite intégrer dans son œuvre. La durée d’enregistrement en studio, surtout si l’on n’utilise que des synthétiseurs, se réduit considérablement, car, en réalité, le travail aura déjà été préparé sur ordinateur dans le home studio. Ce temps se réduit à une simple lecture de la séquence par l’ordinateur qui devient en quelque sorte le « chef d’orchestre » faisant jouer aux synthétiseurs la partition électronique, à la manière d’une boîte à musique.

Échantillonnage

Avec les échantillonneurs, il ne s’agit plus cette fois d’un appareil qui crée ou imite un son en le recomposant à partir de différents types de générateurs, mais qui enregistre un son réel, et qui peut l’affecter à un clavier ou un séquenceur afin de la « rejouer » à volonté. On demande par exemple à un violoncelliste prestigieux, qui a consacré plusieurs années de sa vie à travailler sa sonorité, de jouer sur son instrument les douze demi-tons de la gamme chromatique sur plusieurs octaves. La machine mémorise ces « échantillons », et un séquenceur ou un clavier peut théoriquement interpréter n’importe quelle mélodie avec cette sonorité de violoncelle. La capture de ces « échantillons » peut s’effectuer à partir de n’importe quelle source sonore, en live par des microphones ou en différé à partir d’un disque ou d’une bande magnétique.

Au fur et à mesure que les quantités d’informations numériques (et donc la taille et la durée des échantillons) augmentent, grâce aux progrès des capacités de mémoire des machines, l’échantillonnage devient un véritable outil d’enregistrement numérique avec comme support de stockage de l’information un disque dur d’ordinateur, et donc un accès direct et des possibilités de manipulation par des logiciels.

Les possibilités de manipulations deviennent alors illimitées. On peut, pour les besoins d’un film reconstituer la voix d’un castrat : il suffit, pour cela d’échantillonner une voix féminine de contralto et une voix de haute contre masculine, puis travailler sur leur mélange et leur homogénéisation. Le numérique permet même de générer des notes impossibles à chanter.

On peut faire un pot-pourri en continu de quelques couplets de vieux tubes des années 1960, alors qu’ils n’ont pas été enregistrés dans la même tonalité ni le même tempo : il suffit de les échantillonner. À l’aide d’un logiciel approprié on peut faire toutes les manipulations que l’on souhaite, sans dénaturer les timbres des voix et des instruments. Il est même possible d’enregistrer avec un artiste mort à condition de disposer d’un échantillon significatif de sa voix sous forme d’enregistrement. Il n’est plus utile de savoir chanter juste, on peut corriger les fausses notes directement sur l’échantillon, et certains appareils le font même en direct (vocodeurs et harmoniseurs) ! À partir du moment où un son quelconque est converti en un fichier numérique, tout ou presque, devient possible.

Les premiers séquenceurs MIDI ne nécessitaient pas, sauf pour des œuvres vraiment très volumineuses, des capacités de mémoire importantes car les ordinateurs ne stockaient pas des sons mais des codes de commandes destinés à actionner des synthétiseurs qui eux, produisaient les sons. L’enregistrement numérique, réclamant en revanche des capacités de stockage beaucoup plus importantes, a dû d’abord faire un détour par des supports qui n’autorisaient pas leur traitement informatique direct (supports audionumériques comme les bandes DAT et les CD).

Avec l’augmentation des puissances de calcul et de stockage des ordinateurs, la musique électronique est entrée à la fin du xxe siècle dans l’ère du direct to disk3 qui renvoie au musée des antiquités les premiers enregistreurs numérique, en offrant quatre avantages essentiels :

  • coût en équipement plus faible,
  • fiabilité accrue en raison de l’absence de parties mécaniques en mouvement,
  • extraordinaire souplesse d’utilisation,
  • et surtout possibilité de réunir dans une seule machine tous les appareils antérieurs de traitement du son !

En somme, depuis le début du xxie siècle, un seul ordinateur équipé de quelques logiciels peut désormais constituer l’équivalent d’un studio d’enregistrement.

Limites du réalisme acoustique

Les progrès accomplis en matière de qualité sonore depuis le début du xxie siècle sont indéniables. Il faut cependant rester conscient des limites réelles et audibles de la technologie. Certains éléments de la génération sonore électronique ont peu ou pas évolué, inféodés à des contraintes mécaniques dont les technologies modernes ne savent pas s’affranchir. Il en va ainsi aussi bien des microphones que du transducteur sonore final, le haut-parleur, dont la bande passante n’arrive pas à coïncider avec les vraies capacités auditives de l’oreille humaine. S’il est vrai que l’oreille de l’homme d’aujourd’hui entend plus souvent la musique à travers des membranes de haut-parleurs, ce dernier reste toujours incapable de restituer le naturel d’un instrument réel. Pour s’en convaincre il suffit de reprendre l’exemple du violoncelle échantillonné : l’échantillon est à l’instrument réel ce que la photographie est à son modèle : l’un est figé, l’autre est vivant.

Modélisation instrumentale

Cette étape, assez prometteuse, est en cours de gestation. Son principe est de créer une information sonore à partir des paramètres physiques mis en jeu dans l’émission d’un son. À partir de l’échantillon d’un son, des logiciels déterminent qu’il a été produit par tel élément vibrant, à telle fréquence, qu’il a telle composition enharmoniques diverses, telle décomposition au niveau de son attaque etc. Mais il indique ensuite par quels procédés vibratoires physiques il a été obtenu (une corde de telle longueur, en tel matériau, mise en mouvement par tel procédé, une table d’harmonie de telle taille, de telle forme, en tel matériau etc.). Il est possible de faire varier ces paramètres et d’entendre le résultat. Ainsi, on peut imaginer une flûte traversière où le tube serait allongé trois fois de sa longueur et recourbé sur lui-même en forme de colimaçon. Il n’est plus nécessaire de construire matériellement un tel instrument, le logiciel intègre ces paramètres, modélise l’instrument, et fait entendre le son qu’il produirait. S’il est satisfaisant, rien n’interdit d’en donner les cotes et les plans à un artisan pour qu’il le construise. Il s’agit bien, cette fois, d’instruments virtuels, et non de simple synthèse sonore ou de manipulation grossière d’échantillons.

Mais, on l’a bien compris, cette modélisation virtuelle, bien que présentant une possibilité nouvelle de manipuler les sons électroniquement, montre aussi combien la production acoustique –et non électronique– du son reste prépondérante pour atteindre à une réelle satisfaction des sens.

Perspectives

Tous les sons électroniques, même les plus bizarres, sont probablement réalisables, grâce aux progrès de la modélisation, avec des moyens mécaniques, affranchis des limites de l’électronique. Ce serait une redécouverte de la musique concrète, enrichie de l’expérience de la musique assistée par ordinateur.

Voir aussi

Lien externe