Jusqu’à l’os
Texte publié dans Lettres de Toulouse, Expérimentations pédagogiques dans le dessin de lettres, Paris, B42, 2018.
Entre la fin des années 1960 et la fin des années 1970, plusieurs publications vont bouleverser des conceptions solidement ancrées quant au dessin des caractères typographiques. Elles émanent de personnalités aux profils très différents, qui ont cependant en commun d’appréhender des formes a priori statiques (la lettre gravée ou imprimée) d’un point de vue dynamique, en révélant la gestuelle scripturale qui y est à l’œuvre.
En 1968, le père Edward Catich publie The Origin of the Serif, ouvrage consacré à l’épigraphie romaine de l’Antiquité, dans lequel il s’oppose aux théories qui dominaient alors cette discipline. Il affirme en effet que l’action du burin du graveur lapidaire n’est pour rien dans l’apparition de la terminaison caractéristique des fûts (les empattements). Le graveur ne fait là que souligner un élément formé lors d’une étape préalable à la gravure, lorsque l’inscription est tracée au pinceau plat sur la pierre. Épigraphiste accompli, Catich fonde ses observations sur son expérience personnelle, pour le moins singulière. Avant de devenir prêtre puis enseignant, il a exercé comme peintre en lettres dès son adolescence à Chicago. Ce métier requiert une grande maîtrise du pinceau plat, outil de prédilection des «sign painters». Avec suffisamment de pratique et d’habileté, un peintre en lettre est capable d’exécuter en peu de traits des lettres d’une remarquable régularité, faisant varier l’inclinaison de l’outil au besoin. Le pinceau, très souple, est particulièrement adapté pour les inscriptions de toutes natures: contrairement à la plume, on peut l’utiliser à la verticale, sur des supports durs (tels que la pierre), et à des tailles importantes.
La démonstration de Catich est que l’on peut exécuter les majestueuses capitales romaines, du type de celles qui figurent sur la célèbre colonne Trajane, avec une série de traits exécutés au moyen d’un pinceau plat, la «spatula». C’est selon lui la nature de cet outil, plat à son extrémité, et son inclinaison qui insu?ent dans les lettres le contraste entre pleins et déliés, le léger axe oblique, et l’apparition de l’empattement—autant d’éléments absents des inscriptions grecques et latines archaïques.
Au-delà du débat entre spécialistes, pour avérer ou non l’emploi de cet outil, Catich apporte avec cet ouvrage une autre manière d’appréhender les formes d’inscription: non plus par les contours délimités par la gravure, mais par le tracé sous-jacent. Ce tracé est le produit d’un geste, combiné à un outil scriptural, un geste d’écriture implicite, préalable à celui de l’inscription. Cette nouvelle approche, un brin iconoclaste, questionne en cela les frontières entre paléographie et épigraphie, qui traitent respectivement de l’histoire de l’écriture (sur vélin ou papier principalement) ou des inscriptions (sur des surfaces dures, comme la pierre).
Quelques années plus tard, Gerrit Noordzij, calligraphe et typographe néerlandais, enseignant à l’Académie Royale des Beaux-Arts de La Haye (KABK), expose à son tour des théories audacieuses sur la forme des caractères typographiques. Publiés sous diverses formes à partir de 1973 (Dossier A-Z 73, LetterLetter, The Stroke of the Pen), ses travaux remettent en question les conceptions historiques et la classification des caractères typographiques, en proposant un point de vue nouveau. Il affirme d’abord que «le blanc du mot» est l’élément premier, et pas «le noir de la lettre». C’est cet espace intérieur qui crée le rythme de l’écriture et le «noir» des lettres est indissociable de cette contreforme. Les contours de lettres, ensuite, sont produits par un tracé sous-jacent, combiné à un outil d’écriture, dont le profil va déterminer l’aspect du caractère. Selon que le bec de la plume est plat ou pointu, la qualité du contraste est différente. Il distingue trois modes de distribution des graisses: par translation (avec un outil à bec plat, dont l’orientation reste fixe), par expansion (avec une plume flexible, la graisse s’appliquant par pression, au niveau des fûts verticaux) et par rotation (avec un outil à bec plat, en faisant varier l’orientation de l’outil). Il distingue enfin deux types de construction, continue («cursive») ou discontinue («interrompue»), et deux types d’inclinaison, verticale ou oblique.
À l’instar de Catich, Noordzij propose une nouvelle grille de lecture pour décrire les formes typographiques: une description objective, basée sur l’observation de la structure davantage que sur l’origine historique. On ne parle plus de romain ou d’italique, de classique ou de moderne, de garalde ou de didone, mais de types et de quantités de contrastes, d’axes, d’angles, etc. En déployant ces paramètres selon des axes de variations, Noordzij produit une représentation cubique, qui tend à englober toutes les formes possibles. Ses théories, à la base de son enseignement à la Kabk, ont eu une influence considérable sur plusieurs générations de dessinateurs de caractères issus de cette école.
Cette vision programmatique préfigure, d’une certaine manière, l’avènement du design typographique par ordinateur et la généralisation d’outils d’interpolation, des concepts d’axes et de «design space», c’est-à-dire l’espace de conception et de variation entre des matrices aux extrêmes. Un fort tropisme lie Erik Van Blokland et Just Van Rossum, élèves de Noordzij et fondateurs de Letterror, et Guido Van Rossum, inventeur du langage Python; Frederik Berlaen, quant à lui, était l’élève d’Erik Van Blokland au Type & Media. Chez eux, le type design est étroitement lié à la conception d’outils informatiques.
Les travaux de Noordzij sont à la fois iconoclastes sur le plan historique, visionnaires sur le plan de l’objectivation des caractéristiques formelles des caractères typographiques (en s’appuyant notamment sur des caractéristiques structurelles globales, plutôt que sur des détails de dessin), et foncièrement conservateurs sur le plan formel. Les formes typographiques y sont déterminées par une logique calligraphique sous-jacente qui agit comme la véritable matrice du dessin.
Au même moment, à la fin des années 1970, le mathématicien Donald Knuth élabore à l’Université de Stanford aux États-Unis les logiciels TEX et METAFONT. L’histoire en est célèbre: insatisfait de la perte de qualité typographique dans ses publications scientifiques, consécutive au passage de la composition Monotype à la photocomposition, Knuth interrompt ses recherches et la publication de la somme The Art of Computer Programming, pour se consacrer à ce problème pendant six mois. Le problème lui donnera du fil à retordre et l’occupera pendant plusieurs années. Il s’était donné pour défi, d’une part, de reproduire par des moyens mathématiques et informatiques la qualité du dessin du Monotype Modern 8A qu’il affectionnait (qui deviendra le Computer Modern, la métafonte la plus élaborée), et d’autre part de créer un logiciel de traitement de texte capable de composer des formules complexes, TeX.
Là encore, le pari de Knuth est de décrire non les contours extérieurs des caractères, mais leur squelette intérieur, sur lequel viennent s’appliquer différents paramètres, agissant à la manière de plumes virtuelles. L’idée est séduisante mais sa mise en œuvre complexe. Si de nombreux aspects du caractère sont aisément généralisables (les proportions verticales telles que les valeurs des montantes et des descendantes, la hauteur d’x, le contraste entre pleins et déliés, l’axe selon lequel ils se distribuent, ou encore la tension des courbes), de nombreux détails de dessin font exception. Il faut ainsi pas moins de 62 paramètres différents à Knuth pour s’approcher de l’aspect du Monotype Modern 8A avec la Metafont Computer Modern… Mais cette métafonte peut ensuite prendre toutes les formes, en modifiant l’un ou l’autre des paramètres. Sans globaliser toutes les formes potentielles dans une seule fonte, les métafontes inaugurent une typographie nouvelle, protéiforme. «La forme des lettres n’est plus gravée, ni dessinée mais (d)écrite. [Knuth] apporte de cette façon à la typographie un système abstrait de conception de ce qui constitue un caractère […], excédant la question du média de sortie, des classifications typographiques historiques et du caractère figé d’une fonte. Le code devient ici une méthode, un modèle de pensée pour le design».
Catich, Noordzij et Knuth ont en commun d’aborder le dessin des lettres non par leurs contours extérieurs, mais par leur structure interne; une influence déterminante est alors accordée à l’outil (physique ou virtuel), qui agit comme une interface entre le squelette et la silhouette finale. L’aspect des caractères est le fruit de ces deux facteurs combinés, dialectique qui autorise une plasticité inédite. Limiter une lettre à son squelette pourrait sembler réducteur à première vue. Dans les quelques systèmes pré-cités, l’opération permet au contraire une expansion considérable des formes potentielles, par simple variation des paramètres de l’outil (épaisseur, contraste, angle…).
Si les formes typographiques procèdent indiscutablement des formes manuscrites, ne serait-ce qu’historiquement, peut-on néanmoins reproduire l’ensemble des formes typographiques historiques selon cette logique interne? Rien n’est moins sûr. Au fil du temps, la forme des caractères typographiques s’est émancipée de ses sources manuscrites, et ceci, par le geste du graveur de poinçons. Son action s’apparente davantage à un travail de sculpture, les contreformes étant retranchées de l’extrémité de la tige de métal. Contrairement au geste peint du graveur lapidaire, que révèle l’étude de Catich, rien ne témoigne ici d’un tracé manuscrit sous-jacent: l’influence de la plume n’est qu’un souvenir, un résidu essentiellement culturel et contingent.
Pas plus que la quadrichromie ne saurait restituer toute l’étendue du spectre chromatique, les programmes de Knuth ou Noordzij ne sauraient englober toutes les formes typographiques. Aussi souples qu’ils puissent paraître, ils restent des systèmes idéalisés, à même de simuler un grand nombre de formes, mais qui pêchent précisément par ce qui fait leur force, leur logique systématique. En appliquant un paramètre d’outil à l’ensemble du squelette, le résultat est certes parfaitement cohérent, mais ne peut pas, par exemple, rendre compte de variations arbitraires (comme les italiques de Granjon ou les caractères baroques hollandais) qui font le sel de nombreuses créations.
Pendant des siècles, les contours des caractères typographiques ont été figés par l’extérieur. Les courbes de Bézier, employées pour définir les contours des fontes PostScript, perpétuent cette approche de la forme: la typographie numérique, si elle a considérablement allégé le processus de conception, n’a pas fondamentalement changé la logique de description des formes des caractères. C’est toujours la forme noire saisie, figée dans sa contreforme. S’étonnant de l’immobilité des signes typographiques au cœur d’un paradigme numérique où la matière textuelle est plus que jamais mobile, Nick Sherman qualifie les fontes numériques de «glaçons» flottant à la surface de mises en pages liquides. Une immobilité paradoxale, alors que les phases de conception et de développement des fontes numériques exploitent fréquemment des méthodes de dessin dynamiques, comme l’interpolation de formes. Dans ce texte, publié en janvier 2015, Sherman plaide pour l’avènement de fontes qui puissent s’adapter aux interfaces «responsive» des supports numériques.
Le 14 septembre 2016, lors du congrès de l’Association Typographique Internationale à Varsovie, a été présentée la version 1.8 du format OpenType: développée conjointement par les acteurs majeurs de l’industrie numérique (Apple, Adobe, Google, Microsoft, Monotype, W3C, etc.), cette version offre la possibilité de mettre au point des fontes variables. Un seul fichier peut contenir plusieurs axes de variations, qui rayonnent à partir d’une matrice centrale. Cette technologie est proche des Multiple Masters mis au point par Adobe ou (plus encore) du TrueType GX d’Apple, qui connurent un succès mitigé au milieu des années 1990. Notre époque semble aujourd’hui plus propice pour accueillir un tel changement, avec notamment la généralisation des textes sur écran et des webfonts: sur ce point, le chargement d’un unique fichier de fonte contenant toutes ses variables constitue un enjeu majeur pour les acteurs du web, ce qui contribue à un consensus général sur le sujet.
Cette technologie de fontes variables est sans conteste l’évolution la plus importante dans l’industrie typographique des vingt dernières années. Elle implique des changements profonds en terme de développement et de commercialisation des polices de caractères, mais c’est surtout du côté de l’utilisateur que le bouleversement sera le plus important. En effet, l’interpolation de formes est depuis longtemps au cœur de la création de fontes numériques—mais elles étaient jusqu’à présent «congelées» avant leur diffusion. Au moment de concevoir une famille de caractères typographiques, le designer organise les graisses envisagées sur un ou plusieurs axes (chasse, graisse, corps optique…). Comme dans la technologie Multiple Masters, il dessine les extrêmes (par exemple le Light et le Black) de chacun de ces axes, et utilise ensuite les capacités de calcul de l’ordinateur pour interpoler les dessins intermédiaires (le Regular, entre le Light et le Black). La philosophie des fontes variables est un peu différente, car plutôt que de partir des extrêmes (les coins d’un carré ou d’un cube, selon le nombre d’axes), le dessin part du centre. À partir de ce dessin central, se déploient des deltas, axes de variations qui peuvent partir dans n’importe quelle direction (contrairement aux Multiple Masters, où le dessin se développe sur les axes x et y).
Variable, flexible, dynamique ou liquide, le temps semble venu pour la typographie d’adopter des contours plus mouvants que jamais. Une part de la paternité de cette manière de créer des fontes est à mettre au crédit de Catich, Noordzij ou Knuth, qui ont su lire dans les contours figés des caractères une dynamique potentielle, en dissociant leur enveloppe charnelle de leur squelette. Des squelettes qui n’ont pas fini de remuer.
-
David Vallance, «Décrire des modèles», in .txt2, Ésad •Grenoble •Valence & Éditions B42, 2015, p.48. →
-
Nick Sherman, «Variable Fonts for Responsive Design», in A List Apart, 23 janvier 2015 sur http://alistapart.com/blog/post/variable-fonts-for-responsive-design →