Avec l’avènement des outils numériques de dessin de caractères dans les années 1980, une réelle mutation a été enclenchée. La création qui était alors mécanique, chaque moyen de conception devant répondre à une technique particulière selon les différents procédés de composition, fut bouleversée avec l’arrivée du système numérique. En effet la création n’était pas la même en vue de répondre au dispositif de l’impression au plomb, ou de l’impression bois, ou encore de la photocomposition. Face à la naissance de l’ordinateur et des outils de bureautique, de nombreux procédés ont été mis en place pour permettre la création de caractère sur écran.
Il est intéressant de constater que l’appropriation des outils numérique ne s’est pas faite par les dessinateurs de caractères eux-mêmes, mais par des informaticiens.
L’un des logiciels les plus connus du début de cette période fut MetaFont, pensé dans les années 1980 par Donald Knuth, mathématicien et informaticien. D. Knuth a tout d’abord commencé en pensant un logiciel libre de composition de document se nommant TeX, créé en 1977. Le logiciel a son propre langage, un langage informatique fait d’algorithmes. Ce que contiennent les documents TeX, ce sont les descriptions de mise en page, dans lesquels sont intégrés les positionnements de chaque élément du document. Il faut ensuite exporter le fichier dans un autre format pour connaître le rendu de l’algorithme. Ce logiciel ne permet pas une prévisualisation directe des éléments, comme nous le connaissons aujourd’hui.
Le problème de l’époque c’est que selon le périphérique de sortie du document, pour une visualisation, ou une impression, la qualité de la page pouvait être différente d’une imprimante à une autre. Ce qui eut pour conséquence directe la qualité des caractères typographiques. Ce que Knuth propose, c’est d’optimiser le rendu tout en essayant de garder une certaine qualité, il veut développer une diversité de formes suffisamment importante pour coïncider avec différents médias. Il veut aussi permettre la retranscription des anciens caractères typographiques, en langage mathématique, dans son programme de composition de document. Il met alors en place un autre programme MetaFont, développé en 1979, c’est un autre programme que celui de TeX, destiné à la création de caractères typographiques. Il renverse le dessin de caractère, en construisant ces formes non pas par le contour des lettres mais par un trait. Un trait central qui serait ce que Knuth aurait défini comme étant le « squelette typographique » de la lettre. Le caractère se construit alors par épaississement, pour adapter sa taille au résultat de sortie. C’est dans un article de 1982, The concept of a Meta-Font, publié dans Visible Language que Knuth explique la vision qu’il a de son programme. Pour lui, si on arrive à décrire par le code la façon dont s’effectue le tracé d’une lettre en particulier, alors nous devrions pouvoir programmer une infinité de styles au sein de cette famille, passer du bold au light grâce à des solutions mathématiques. L’enjeu pour lui est de générer des familles de caractères en adéquation avec l’outil utilisé. Générer ses variations par le code serait une façon de retranscrire la famille comme nous pouvons la retrouver dans le dessin de caractères en plomb. Il parle de « l’esprit de la lettre », c’est l’idée qu’une lettre serait capable de définir stylistiquement de manière claire toute une famille. Ce qui fait évidemment écho avec la façon dont certains logiciels de création de caractères permettent aujourd’hui la duplication d’une forme sur l’ensemble d’un glyphset •.
La façon dont il met au point son programme repose sur des lignes de codes . Voici deux exemples de conception sur la lettre « a ». Au sein d’un cadre, il définit un axe pour les abscisses et un axe pour les ordonnées. Grâce à ces axes, il va définir des points selon des positionnements précis en fonction de la « structure » qu’il veut créer . Il peut donc manipuler leurs coordonnées pour faire varier la forme de la lettre. Nous pouvons aussi remarquer que sur le fichier de codage les informations concernant la taille en points de la lettre sont précisées, pour adapter le dessin selon la taille de corps de sortie décidée. À la suite du positionnement des points indiqué, la taille de « l’outil », souhaité est indiquée pour définir la graisse. C’est avec cet outil fictif que l’inclinaison et l’épaisseur du trait sont définies. Ces outils sont imaginés sur la base des outils manuels, nous retrouvons le crayon, la plume, le pinceau, etc. dans un souci de mimétisme de l’outil manuel. D’autres instructions permettent d’effectuer des homothéties, des rotations, des symétries, des translations, etc.
Ce procédé présente le caractère comme une structure sous-jacente sur lesquels interviendraient différentes variables paramétriques définissant le caractère final. Comme si le « squelette » de la lettre était composé grâce à des ajouts, des accumulations de variables typographiques, donnant le sentiment de pouvoir modifier le caractère de manière presque infinie.
Ce programme étant pensé en parallèle du logiciel TeX, en effet ce dernier ne supporte que les polices créées depuis MetaFont. Knuth décida donc de mettra au point, avec MetaFont, une police de caractère conçue pour ce dernier. Il mit en place le Computer Modern , un caractère appartenant à la famille des Didones. Ce caractère est assez contrasté, ses pleins et ses déliés sont marqués, il est défini sur une hauteur de x assez importants de manière à avoir un œil qui prenne suffisamment de place dans du texte. Il ne faut pas oublier la qualité des retranscriptions informatiques de l’époque : si Knuth ne voulait pas que son caractère soit obstrué il fallait laisser rentrer du blanc grâce aux contreformes. Cet effet est accentué par des courtes ascendantes et descendantes. Ce caractère est le témoin de ce que Knuth a souhaité conserver des formes typographiques imprimées. Comme les graveurs sur plomb se sont attachés à retranscrire les propriétés de la manuscription, Knuth a généré des formes se rapprochant de l’imprimé. Bien sûr il a ajusté son dessin aux conditions de visualisation de la forme, mais il n’a pas réellement interrogé la forme typographique. Il a construit de nouveaux outils pour retranscrire l’existant typographique .
C’est justement avec ces moyens qu’il a pu questionner la structure même de ce qu’est notre alphabet, en travaillant sur cette sorte d’automatisation de l’alphabet. Avec une reconstruction de la lettre par le code nous pouvons aussi penser qu’une part d’erreur peut-être produite par la machine, comme n’importe quel programme elle peut générer des absurdités non pensées par l’homme.
Cette méthode fut l’objet de nombreuses critiques comme l’énonce Robin Kinross dans La Typographie Moderne
Mais, comme d’aucuns allaient bientôt le confirmer dessiner des caractères par leur contour pouvait constituer le moyen d’en créer. Les premières publications relatives à ces travaux se révélèrent rudimentaires. De surcroît, elles ne possédaient aucune légitimité scientifique aux yeux des connaisseurs en typographie. Mathématicien et informaticien Knuth était étranger à la profession et, en apparence dénuée de l’œil qui résulte d’années d’immersion dans l’univers typographique. KINROSS Robin, La Typographie Moderne, Un essai d’histoire critique, 2010, B42.
L’œil du typographe n’avait effectivement plus de place dans ce processus, il est vrai qu’il est compliqué de « décrire » une forme, mais ce programme a été pensé pour tenter d’appréhender la création de caractère avec le langage des outils de l’époque. Il me paraît réducteur que de comparer un dessin typographique réalisé à la main et ce que cherchait à produire D. Knuth, puisque nous n’avons pas à faire au même mécanisme de création. Avec MetaFont il est n’est pas possible de manipuler, de penser une surface, c’est une hiérarchisation des informations, c’est une conception que l’on pourrait qualifier d’abstraite de faire du dessin de caractère. Ce que cherchait Knuth est une nouvelle façon de produire de la forme conjointement aux outils numériques. Par cette conception mathématique il tente de penser une informatisation du processus création de caractères. Il me semble que c’était surtout une réflexion conduite sur les outils numériques et la mutation typographique qu’ils pouvaient engendrer.
L’outil MetaFont n’a pas vraiment été adopté par d’autres créateurs de caractères. Les raisons soulevées par certains sont qu’ils y voyaient une réduction de la forme typographique dans le fait de mécaniser les polices de caractères.
Ce conflit rejoignait en réalité l’éternelle querelle entre les partisans d’une typographie rationnelle et ceux d’une typographie répondant à des critères esthétiques : les lettres qui pouvaient être décrites avec précision, comme toute forme générée par un ordinateur se doit de l’être, ne paraissaient pas pleinement satisfaisantes, comparées à celles dessinées librement par la main. KINROSS Robin, La Typographie Moderne, Un essai d’histoire critique, 2010, B42.
Cet extrait nous renseigne bien sur la façon de penser de l’époque, « typographie rationnelle » pour parler des caractères de MetaFont est assez réducteur ; au contraire je pense que Knuth attachait de l’importance à retranscrire l’esthétique des formes typographiques connues, son caractère le Computer Modern en est le témoin. La plupart des dessinateurs de caractères pensent avec des formes, et non pas par une pensée de la forme décrite, c’est ce qui a fait que le projet n’a pas été beaucoup utilisé du côté des dessinateurs de caractères.
C’est une démarche exploratrice que Knuth a effectuée avec ces logiciels, il a réellement découvert ce que nous nommons aujourd’hui les fontes paramétriques. Il y a quelque chose du lien entre le designer et l’ingénieur qui est intéressant autour de MetaFont. Knuth a tenté d’analyser et de s’approprier l’outil informatique qu’il a mis au service du design. Il me semble que le problème réside dans le fait que l’outil en vue des perspectives de Knuth, n’a pas servi de nouvelles formes mais c’est contenté de mimer des formes anciennes avec les qualités de l’époque.
La conception paramétrique ne se base pas sur ce que nous connaissons du dessin de caractère traditionnel. Il a pu paraître compliqué pour certains d’imaginer de paramétrer une famille de polices de façon totalement satisfaisante (par exemple, l’italique n’est pas une transformation oblique des caractères romains), il y a toujours quelques réajustements nécessaires. C’est pour cela que Knuth voyait le programme de manière ouverte et publique, pour permettre à chacun d’expérimenter et de proposer des formes typographiques. Dans le code, nous pouvons aussi voir qu’il est facile de modifier tel ou tel élément, ce n’est pas un processus de création fermé, le designer a la main mise sur différents paramètres, cités plus haut. Les polices paramétriques sont extrapolées, ce qui signifie qu’elles émergent d’une seule définition. Ce qui est différent des fontes variables qui elles dépendent de plusieurs masters pour définir les variations. C’est donc au designer de générer les formes qu’il veut faire varier. Les fontes paramétriques dépendent d’un espace dans lequel elles évoluent qui n’est pas limité, cela parce qu’elles se comportent comme des objets mathématiques, leur variation se fait par ajout ou suppression de valeur numérique. De cette façon l’informatique invente des formes qui ne sont pas totalement pensées par l’imagination.
Le développement des logiciels de création par les ingénieurs donne au designer la possibilité d’acquérir de nouvelles compétences. La nature des outils ayant changé la relation entre le designer et la technique n’est pas sans rappeler les questionnements du Bauhaus, la qualité de la création dépendant de l’harmonie entre l’esthétique et la technique.
Dans les années 1980, d’autres recherches se sont portées sur le statut des caractères face au numérique. Les nouveaux langages informatiques développés par Adobe permirent une vraie avancée pour l’utilisation des outils numériques.
Le format PostScript développé permit de contenir en un seul format tous les éléments d’une composition mise en page, qu’ils soient ou non de nature différente. Les images et les textes étant décrits dans les mêmes formats, ils pouvaient subir les mêmes transformations graphiques. Ce langage de description était reconnu par toutes les machines, ce qui favorisa son utilisation. Ce qui nous intéresse c’est la question de la lecture des polices de caractères à l’écran qui fut déterminante pour la conception des caractères à l’écran. Ce fut rendu possible grâce au format PostScript dans lequel les caractères furent optimisés par ce que l’on nomme le hinting . Cette avancée technologique permit au caractère de s’adapter à des outils utilisant une basse résolution. La définition des contours, devenus vectoriels, permet au caractère de s’ajuster aux pixels de l’écran, ce qui eut une influence directe sur la manière dont on créa les caractères puisque cela permit une retranscription conforme entre le dessin et l’apparition de la forme.
Les ingénieurs développèrent différentes modifications dans les formats de rendus, jusqu’à permettre au dessinateur de caractères de parfaire sa forme selon n’importe quelle taille de corps désirée. Il était donc possible de synthétiser une forme à plusieurs échelles de corps, sans problème de crénelage dû à la résolution. Robin Kinross parle même d’un retour aux formes et savoirs traditionnels, qui s’était perdu à l’heure des techniques de la photocomposition, à l’époque où l’on produisait des copies de caractères de faible qualité. Ce fut alors le moyen pour beaucoup de dessinateurs de penser la simulation du plomb, et de numériser des caractères existants.
Ce qui permit de créer des fontes totalement opérationnelles, et donna la possibilité à de nombreux designers de créer leurs propres caractères, de produire des formes typographiques lisibles et utilisables sur n’importe quel outil numérique de l’époque. Chaque caractère détenait alors une licence et le créateur pouvait devenir son propre producteur, ce qui fut un bouleversement pour l’ère des fonderies.
Durant cette même période, une deuxième avancée marqua le tournant de la production de caractères et du statut de designer. L’apparition du format actuel OpenType, un fichier dont la lecture pouvait être effectuée sur n’importe quel processus informatique. Et dont la capacité maximale du glyphset s’étendait à 64 000 glyphes. Ce qui permit d’étendre la création de caractère numérique à des écritures orientales, qui jusque là étaient limitées à un peu moins de 300 glyphes. Au-delà de l’apparition de moyens de visualisations de plus en plus performants, le fait de pouvoir mettre à disposition de l’usager des milliers de glyphes laisse à penser qu’il puisse se servir des caractères comme outil de variations typographiques. En effet le fichier pouvait contenir plusieurs jeux de chiffres, des jeux stylistiques différents, des accentuations couvrant toutes les langues européennes, etc.
Ces évolutions technologiques permirent l’extension des possibilités de création pour le designer. Face à ces outils, le designer deviendrait presque un usager, tant il est éloigné des réalités informatiques se trouvant derrière des systèmes comme ceux mis en place par Adobe, Apple et Microsoft. Il est n’est plus vraiment décisionnaire de ces outils, nous pourrions dire que ce sont des sortes de guides que le designer reçoit, car il n’a pas accès à cette connaissance des procédés numériques mis en œuvre. Ce ne sont pas ces outils qui changent mais les moyens mis en œuvre pour lui donner accès à ces outils. Malgré ce changement de moyens, le designer n’a pas vraiment repensé une forme qui conviendrait davantage au numérique, une forme qui témoignerait de cette innovation, comme ce fut le cas pour la Bible à 42 lignes lors du passage de la manuscription à l’impression.