E
1
6
2
.
E
U
- À propos
- Annuaire
- Projets
- Mémoires
- Caractères
Sultan
Sultan
2017
- Paragraphe
- Titre
- Alphabet
- Nombres
Seul un ORDINATEUR pouvait dépouiller, classer et gérer, en moins de sept ans, 90 millions d’exemples extraits de bibliothèques de toutes disciplines. Employant pour la première fois cet instrument nouveau sur une aussi vaste échelle, 150 chercheurs et techniciens ont réalisé le DICTIONNAIRE NATIONAL qui manquait à la langue française contemporaine. Grâce à l’électronique, chaque mot est traité tant en fonction de données statistiques, que selon ses différentes significations et valeurs d’emploi.
Certes, quel outil, mieux que le dictionnaire, représente pour ses utilisateurs la normativité absolue, l’information pour l’information, l’utopie d’une exhaustivité et la possibilité de saisir le monde de manière uniforme. Mais doit-on voir en ce préjugé une vérité absolue ou, au contraire, un défi pour le lexicographe mais aussi pour le designer, un défi qui amènerait à entrevoir l’éventualité d’une reconfiguration des savoirs et plus largement de la pensée par le biais d’un outil qui porte en lui l’espoir de devenir un « matériau contingent », « une forme ouverte » ?
Animé par le postulat que le moment est venu pour la lexicographie de s’extraire des carcans dans lesquels celle-ci s’est plus ou moins volontairement enfermée, cet écrit entend être une étude parcellaire et sciemment partiale des possibilités infinies du numérique et de leur apport utopique à l’« univers achevé et en même temps illimité » qu’est le dictionnaire. En somme, il s’agit ici d’offrir au dictionnaire un espace de rencontres avec la nouveauté, de le mener sur une trajectoire prospective et hypothétique qui ne saurait se considérer comme meilleure que celle qui est la sienne pour l’heure, mais une trajectoire radicale au bout de laquelle se trouvera, dans le meilleur des cas, le début d’une réponse à l’ensemble des questions qui se posent aux designers et aux lexicographes.
En effet, avec la démultiplication toujours grandissante des supports, du smartphone à l’ordinateur portable, de la tablette à la montre connectée, sans oublier le papier, qui n’a évidemment pas disparu, comment envisager la publication d’un contenu, sans que celui-ci ne perde au passage de son sens initial, mais puisse aussi tirer profit des particularités de chacun des formats dans lesquels il devra se muer pour s’offrir au lecteur ? Prenons l’exemple d’un article de quotidien quelconque, illustration parfaite d’un contenu qui sera lu dans des environnements divers, sous des formes diverses. Là où la publication papier fera la part belle au texte et éventuellement à une ou plusieurs images, la lecture sur ordinateur, elle, offre la possibilité d’envisager la présence de vidéos ou de liens hypertextes vers d’autres articles voire vers d’autres ressources de manière aisée et naturelle. Il ne s’agit évidemment pas de dire ici que la lecture numérique offre nécessairement une expérience augmentée mais simplement une expérience potentiellement différente, qu’il serait peu pertinent de laisser de côté.
Il semble, de ce fait, indispensable pour le design et plus largement pour les pratiques de recherche de s’approprier les outils numériques pour mener une entreprise de reconfiguration du savoir et ainsi « conduire à modifier notre compréhension de la connaissance, de la sagesse et de l’intelligence elle-même ». Pourquoi ne pas ainsi envisager la possibilité de suivre l’exemple d’Aby Warburg qui, avec son Atlas Mnémosyne, a « subverti les formes canoniques » de l’histoire de l’art, et a ainsi introduit dans cette discipline un « paradigme de recherche » renouvelé ? En effet, il s’agit bien là de passer outre « les cadres de l’intelligibilité » et de proposer, via une remise en cause, non pas seulement de la forme, mais plus largement de la configuration des savoirs, une production qui avance en un décalage fécond.
Rappelons que dans notre questionnement spécifique au dictionnaire, il ne faut pas oublier qu’à l’origine, le Trésor de la Langue Française avait comme objectif de précisément prendre part aux évolutions de la technologie des années 60 – 70 pour redéfinir, déplacer la linguistique et la lexicographie dans un cadre novateur et profondément prolifique. On observe donc ici toute une entreprise de production de savoirs qui a pleinement participé à et même anticipé la révolution technologique pour introduire de nouvelles formes de recherche et ainsi s’affranchir, s’émanciper, des limites intellectuelles de l’époque. Mais alors que l’ère de la révolution pré-numérique a fait émerger de réelles révolutions dans la production même des dictionnaires, on observe à l’inverse que l’ère post-digitale a été l’ère d’une translation vers les écrans et non d’une reconfiguration complète pour l’écran.
Incapables de s’affranchir de la lourde paternité des structures conventionnelles du papier, les interfaces numériques se contentent ainsi de n’être que des « interfaces interchangeables faisant de la transmission des savoirs une expérience administrative ». Dans cet univers stéréotypé, inapte à prendre sa pleine autonomie et à formuler des concepts appropriés à ce nouveau paradigme, le designer pourrait, à mon sens, se donner la mission de progressivement amener l’utilisateur à se détacher de ses propres limites et de ses propres cadres préétablis.
La question de l’arbitraire créée par ce procédé n’est toujours pas soulevée. Qu’apporte ce système au contenu de l’ouvrage ? Quelles en sont ses conséquences ? Queneau parle du dictionnaire comme d’un alphadécédet. Qu’entend-t-il par là ? Le classement alphabétique endommage-t-il la substance du mot où le dictionnaire devient-il finalement une rubrique nécrologique de la langue française ordonnée de A à Z ?
Le design pourrait-il donc, en tant que médiateur d’une information complexe, prendre part à la redéfinition des pratiques du savoir à l’ère du numérique ? Face à la démultiplication des canaux de diffusion et la toujours plus grande profusion des informations avec l’avènement des médias numériques, comment le designer pourrait-il être une composante de la renégociation entre contenu et contenant, entre fond et forme ? À ce titre, le designer pourrait-il contribuer à la formulation d’une esthétique nouvelle, mais plus largement, être le créateur d’une « indiscipline face aux disciplines installées » ?
Un dictionnaire encyclopédique est de moins en moins l’œuvre d’un homme et de plus en plus celle d’une équipe qui met en œuvre des moyens puissants. Elle suppose une organisation permanente : l’établissement d’un fichier n’a qu’un intérêt limité s’il n’est qu’un reflet provisoire d’un état de langue. Il ne peut s’agir que d’une œuvre dynamique. En matière d’étude du vocabulaire, une conception statique, qui ne rendrait pas compte de l’évolution, est vouée à l’échec.
À bien des égards, il pourrait même paraître pertinent d’envisager le web dans son ensemble comme « une encyclopédie fragmentée et aléatoire », une « encyclopédie polymorphe » où chacun se trouve être à la fois contributeur et utilisateur, acteur et spectateur d’un monde en perpétuel mouvement, en perpétuelle remise en question. L’information naît presqu’en même temps qu’elle meurt, elle est offerte à toute la communauté des internautes et devient aussitôt obsolète. Cette temporalité frénétique s’apparente à une norme à laquelle tous les pans du savoir semblent devoir se soumettre. Les dictionnaires, connus pour être des outils en décalage permanent avec la « bouillonante actualité », ne paraissant, pour les versions imprimées les plus régulières, que chaque année, avec des modifications minimes, ne deviennent ainsi, avec des sites comme Wiktionnaire, que des « palimpsestes de la quotidienneté », ce que regrette le lexicographe Jean Pruvost dans son ouvrage Dictionnaires et nouvelles technologies.
La profusion éphémère de l’information sur Internet, si elle est partie intégrante de l’expérience démocratique du monde contemporain, pose ainsi la question de la valeur réelle des fragments de connaissance que chacun dépose, plus ou moins anonymement, dans son interaction avec les nouveaux médias. Comment de ce fait serait-il possible de ne pas être constamment « subverti à son insu », si partout, tout le temps, tout « se rejoue et se relance » sans qu’une quelconque autorité ne vienne fournir de caution au savoir ainsi universellement distribué ?
Il est ainsi une question, devenue particulièrement prégnante lors des derniers mois de l’année 2017, celle de la neutralité du net, née avec l’Internet grand public et mise à mal par le gouvernement fédéral américain qui souhaite mettre fin à ce principe, rendant ainsi l’accès aux contenus du web inégalitaire et discriminatoire. À travers cet affront à l’un des principes fondateurs du web, c’est toute une idéologie communément admise qui est malmenée, rappelant aux yeux des internautes que le web n’est bien qu’un outil, qu’un média, soumis aux pressions et à des autorités bien plus puissantes que les simples citoyens qui modifient, à l’envi, les articles de Wikipedia par exemple. Rappelons notamment que les algorithmes de Google ne sont pas aussi neutres que l’entreprise voudrait bien le laisser croire, laissant de côté tout un flot de données « dérangeantes », que l’entreprise tire en particulier une grande partie de sa rentabilité du paiement des annonceurs pour se retrouver en tête de liste lors d’une recherche ou bien encore que Google, afin de ne pas s’attirer les foudres de certains états, modifie les informations montrées en fonction de la géolocalisation des internautes.
Dans ce cadre, l’internaute se trouve donc nécessairement dans la position de celui qui questionne plutôt qu’il n’accepte l’information glânée sur les pages web. N’est-elle en effet que la formulation sous-jacente d’une autorité omniprésente et pourtant non-assumée (celle d’un état ou d’une multinationale par exemple) ? Ou bien un agglomérat plus ou moins cohérent, un palimpseste de l’impermanence, qui tirerait une autorité arbitrairement de l’idée de la profusion (comme sur les sites de crowdsourcing) ?
Des sites comme Google reposent ainsi sur des algorithmes extrêmement complexes dont l’opacité, pour l’ensemble des internautes, n’est là encore qu’un danger pour la pertinence des savoirs et pour leur organisation. Ce mouvement vers l’automatisation de la structure, mais aussi, de plus en plus, vers l’automatisation de la création des contenus est ainsi un pas de plus vers le refus de l’auteur comme constituante centrale du développement de l’information et comme figure spécialisée et créatrice de savoir.
Face à la nouvelle forme d’organisation qui émerge pour faire vivre un idéal supposément démocratique où chacun pourrait être le maillon d’une chaîne infinie d’utilisateurs-acteurs ; face à cette nouvelle donne où toute forme de hiérarchie et d’organisation verticale semble proscrite, comment réenvisager la notion d’autorité et de propriété face à un savoir constamment remis en cause ? Là où « les navigateurs d’Internet ont déjà fait de la toile (…) [un objet] aléatoire, révolutionnaire, pertinent ou fallacieux », il est raisonnable d’entreprendre un chemin méthodique vers un Internet qui saurait se détacher de l’immédiateté du quotidien sans perdre de son actualité et de sa profusion, tout en réussissant à prendre conscience de ses propres limites et de sa nécessaire incomplétude.
Ce serait le désordre qui fait scintiller les fragments d’un grand nombre d’ordres possibles dans la dimension, sans loi ni géométrie, de l’hétéroclite ; et il faut entendre ce mot au plus près de son étymologie : les choses y sont « couchées », « posées », « disposées » dans des sites à ce point différents qu’il est impossible de trouver pour eux un espace d’accueil, de définir au-dessous des uns et des autres un lieu commun.
De lien en lien, de mot en mot, mon regard a navigué tout au long de la surface de mon écran à la recherche d’une information que mon esprit ne cherche pas. Les liens bleus m’interpellent, les liens rouges m’avertissent. À cet instant précis, la sensation d’un savoir qu’il me serait impossible de complètement capter, d’entièrement appréhender, me cause un trouble certain. Et puis me voilà à la fin supposée de mon cheminement. Et si je devais instinctivement retracer le parcours maladroit de mon esprit à travers le savoir humain précautionneusement disposé sur Wikipedia, j’en serais bien incapable. Si je devais rendre physiques, en les imprimant par exemple, les pérégrinations intellectuelles qui m’ont mené tout au long de ces quelques heures, je ne pourrais le faire.
Pourtant, chaque document, chaque fichier, chaque image est unique. Chacun dispose de ses caractéristiques propres, de son contexte propre, de telle sorte qu’il ne peut y avoir de « totalité cohérente » sur Internet. Le web est donc cet espace un peu étrange où cohabitent des objets de natures toujours différentes dans une structure horizontale qui donne à chacun le même poids et la même importance. En somme, une idéologie qui n’est pas sans rappeler les principes des sociétés démocratiques, que Lev Manovich n’hésite pas à rapprocher des structures primaires du web.
Avec son projet The Deleted City, Richard Vijgen, tel un archéologue, est donc parti à la recherche des restes de pages hébergées sur Geocities, un hébergeur du début du siècle qui proposait à ses usagers d’acquérir gratuitement un espace vacant dans une ville virtuelle. Parcourir ce monde virtuel permet de matérialiser une réelle géographie de l’espace du Net, avec ses villes, ses quartiers, ses parcelles, et avec ses informations disséminés à chaque endroit de ce lieu en construction. Dans cet espace dont il est alors impossible de définir les limites et plus largement les formes, les constellations de pages deviennent ainsi les lieux d’un scintillement, d’un étoilement sémantique propre à définir une nouvelle manière de penser.
Contracter l'écriture
Élision et tradition
Changement de paradigme, le plurisystème graphique
Ouvrir la lecture
De la signature à la marque
Étoilement numérique
Pages
Architectures parallèles
Façonner les savoirs
Unités-pages
Palimpseste
Autorités numériques
Neutralité du web et pouvoir des états
La machine auteur
Constellations
rgba(0, 0, 255, 1)
Un espace agrégatif et infini
Hétérotopies
Inépuisable
Interpréter l’œuvre
Horizons toujours ouverts
Sérendipité et immédiateté
Structures objectives
Sujet
Médiations dirigées
Se penser comme unique
Montages
L’imprévu de l’intervalle
Ne pas tout voir
Fragments intertextuels
Frontières
Des machines à produire de l'impensable
Une poétique de l’automatisation
Appendices
Wiktionnaire, le dictionnaire de l’ère numérique
Interview de Joost Grootens
Flexibilité typographique
L'outil technique
L'homme et la machine
La Bible à 42 lignes
Influences techniques
L'outil numérique
Une pensée paramétrique de la forme typographique
Le numérique, une démocratisation des outils typographiques
Les fontes variables
Redéfinition des processus créatifs
Mutations typographiques
Variabilité des usages
Lectures
Lecture, Théorie(s) et pratique(s)
Action de lire
Activité de lecture
Pratiques et supports de la lecture
Évolution et diversification
Les rôles actifs du lecteur
L’exemple de l’annotation
Du postulat vers le consensus
Notion de mise en livre
Les postulats de l'éditeur
Un basculement dans l'infra ordinaire de la page stabilisée
La sensible question de la lisibilité typographique
L’exemple des éditions Point 2
Un terrain d’entente
Un nouveau contrat de lecture
Lecture numérique
Livre numérique
Le cas de la liseuse
Variabilité de l’image textuelle et paradoxe de l’écran
Personnalisation et redéfinition du rapport à la lisibilité
Vers une variabilité typographique ?
Révélations
La connotation du choix typographique
Des premiers pas conditionnés
Un plaisir typographique
De la distanciation à l’immersion
Dévoilement typographique / dévoilement du film
Signer le film dès l’ouverture
La répétition comme rituel
La création typographique comme distinction
Commencer sous de bons auspices
Une expérience insolite de l’écrit
Crypter le générique pour faire apparaître l’image écrite
Révélations épileptiques : le rythme typographique