La culture numérique entre l’appréhension de l’oubli et la fabrication de la mémoire

Digital Culture between Fear of Forgetting and Construction of Memory

DOI : 10.52497/kairos.213

Résumés

Résumé : Les objets culturels créés par les technologies numériques (œuvres, documents, médias…) sont menacés d’obsolescence et d’oubli par leur complexion même et la fragilité de leur support technique. En même temps, pour conjurer cet oubli, leurs concepteurs les équipent de marqueurs pour en assurer la pérennité, en anticipant sur ce qu’ils sont appelés à devenir dans le temps long. Parmi ces marqueurs, les métadonnées, aussi bien techniques que juridiques ou documentaires et archivistiques constituent un élément caractéristique pour la conservation de ces documents. L’article examine, en fonction des qualités propres au document numérique et de pratiques nouvelles induites par sa plasticité comme celle du « remix », les conséquences en termes de mémoire et d’oubli.

Abstract: Cultural objects created through digital technologies (literary works, documents, media…), due to their physical fragility, are threatened by obsolescence and disappearance. In order to prevent the permanent loss of these objects, conceptors use descriptive markers to ensure their long-term preservation. Among such markers, a variety of metadata – technical, legal, document or archival metadata – constitute a characteristic component of digital preservation. This article examines the consequences, in terms of memory and loss, by considering the nature and specificity of digital documents as well as emergent practices such as "digital remix".

Index

Mots-clés

Archive, archive électronique, préservation numérique, mémoire, document numérique

Keywords

Archive, digital archive, digital preservation, memory, digital document

Plan

Texte

Introduction

Les procédés informatiques qui sous-tendent la fabrication des objets culturels sont désignés de plus en plus sous le vocable unique de « numérique » (à partir du digital des Anglo-saxons, terme qu’emploient également en français les consultants et les milieux d’affaire, notamment dans l’industrie informatique). « Le » numérique recouvre ainsi un mouvement d’ampleur à travers lequel la quasi-totalité des supports qui sont les porteurs de notre culture acquiert des caractéristiques matérielles, physiques et techniques de même nature. Les procédés de fabrication des supports de la littérature, de la peinture, de la musique, puis de la photo, du cinéma… relevaient de registres singulièrement différents. Tous procèdent aujourd’hui d’une même réduction à un substrat numérique. Même les objets dont le résultat physique final ne peut se réduire à l’écran, comme une sculpture, un monument, un objet industriel font l’objet, en termes de préparation, de plans, de mesures, et bien sûr de reproduction à l’écran (simulation 3D) d’un appareillage numérique. On peut même ainsi reconstituer des simulacres d’objet du passé tels des monuments, des scènes de vie ou des visages de personnages historiques.

Bien naturellement, ce substrat technique ne signifie pas un arasement, une indifférenciation de ces objets dans leur portée sémiotique et intellectuelle, ni dans leur signification sociale et culturelle. Mais il contribue fortement à brouiller les pistes et introduit une série d’interrogations nouvelles. Milad Doueihi parle de « conversion numérique » (2008) ou pose la question « Qu’est-ce que le numérique ? » (2013) ; Michel Wievorka invoque un « impératif numérique » (2013) par lequel se trouvent interpellées les sciences humaines et sociales ; Yves Jeanneret (2008) envisage comment cette unification par la plate-forme matérielle favorise de nouvelles formes de circulation, des « êtres culturels » selon ce qu’il qualifie de principe de « trivialité ». Toutes ces approches et bien d’autres contribuent à former un nouveau champ de recherche que l’on peut considérer comme à peine entamé. D’abord parce que nous n’en sommes qu’au début de la mutation, dont les suites sont annoncées avec l’internet dit « des objets » ou le « Big Data », ensuite parce que la vie de ces objets peut être étudiée sous de multiples angles et à partir de nombreuses approches disciplinaires. Leur épuisement est d’autant plus incertain que leur substrat technologique même les amène à muter en permanence et l’on annonce régulièrement un nouveau lot d’inventions et d’aménagements qui renouvellent le paysage1. Il importe cependant que le chercheur sache et puisse rester en quelque sorte « à l’abri » de ces effets d’annonce afin d’assurer une continuité d’analyse et de repérer les vrais moments de rupture sous les apparentes discontinuités. Autrement dit, il est nécessaire d’assurer une compréhension toujours plus profonde et plus fine des phénomènes de fond, durables, sous l’écume de l’actualité et sans se laisser prendre au piège de la valse de concepts qui sont trop souvent de nouvelles appellations marketing de phénomènes certes nouveaux mais ancrés dans des mouvements de fond et de long terme.

Et nous voici déjà confrontés à la question de la permanence et de l’oubli ! Faudrait-il pour chaque objet nouveau, chaque technologie dite « révolutionnaire », chaque phénomène de mode, chaque nouveau comportement d’usage, inaugurer de nouveaux concepts, de nouvelles théories, ou au contraire faut-il s’assurer une mémoire de ce qui, déjà dans l’examen des formes du passé peut nous instruire sur les modifications du présent ?

L’objet de cet article est de montrer que la problématique de l’oubli et de la mémoire est totalement ancrée dans la fabrication même de ces objets de la culture numérique, car leur complexion même en fait des objets fragiles technologiquement, soumis à évolution voire à obsolescence, et dotés de caractéristiques qui rendent problématique leur permanence et donc leur identité. Cette appréhension (au sens de crainte) d’un oubli programmé, débouche sur une appréhension (au sens de saisie) de ces phénomènes qui sont consciemment mobilisés pour introduire au sein même de l’objet toutes les composantes techniques nécessaires à sa préservation et donc à sa mémorisation. Ces éléments programmés ne sont pas visibles de l’utilisateur et font donc partie de sa structure cachée mais présente – en clin d’œil à Eco (1991). Il s’agit pour nous de mettre en lumière ces éléments cachés, en insistant notamment sur les métadonnées.

Figures de l’oubli

Il est relativement courant d’associer de manière dialectique la mémoire et l’oubli, l’un n’étant pas seulement le négatif de l’autre, mais les deux relevant d’un processus de construction, contradictoire et complémentaire à la fois, et qui peut dépendre d’un fait de volonté ou d’un cheminement involontaire et inconscient.

De ce fait, travailler sur l’oubli amène forcément à questionner la thématique de la mémoire et réciproquement. Mais le sens par lequel on remonte ou descend – comme on voudra – cette chaîne de corrélations n’est pas indifférent. Dans notre activité professionnelle puis dans notre activité de recherche, nous avons surtout travaillé sur les processus de conservation de la mémoire documentaire et donc pensé l’oubli à partir d’une construction de la mémoire. Cela ne peut pas être neutre. Toute autre est une pensée de la mémoire à partir d’une thématique de l’oubli dans le cas du travail du psychothérapeute par exemple. Les bibliothécaires et documentalistes emploient un terme curieux lorsqu’il s’agit d’alléger un fonds documentaire, soit pour des motifs de gestion de l’espace soit pour prendre en compte la péremption de l’information et du document, soit les deux. Ils parlent alors de « désherbage » ; or, le jardinier entend par là l’arrachage des « mauvaises » herbes, et on peut se poser la question, concernant l’oubli en matière documentaire, de ce qui est devenu si mauvais qu’il faut s’empresser de l’oublier, et ceci par la façon la plus radicale qui soit : l’élimination et la destruction. Contrairement au souvenir enfoui qui peut toujours remonter à la surface, le livre ou le document éliminé de la bibliothèque n’y reviendra pas. Il ne sera alors mémorisé que par ses traces, par exemple le fait d’avoir été cité dans d’autres ouvrages. Les institutions patrimoniales, quant à elles, sont là pour assurer cette pérennité exhaustive de la masse d’information produite, quelle que soit par ailleurs la valeur que l’on affecte aux contenus ainsi préservés.

Hormis, donc, ces institutions patrimoniales, nous avons affaire à un contexte professionnel dans lequel on organise l’oubli à partir d’une notion – voire d’une mission – de conservation et de mémoire. C’est d’abord ce qui est digne d’être conservé que l’on considère, et l’on organise l’oubli à partir de ces principes, qui peuvent aussi devenir des règles, voire des normes. On pense d’abord ce qui est digne de mémoire avant de considérer ce qui mérite l’oubli. Mieux, l’oubli peut épouser la figure négative de la perte : un document qui disparaît accidentellement et c’est un pan de la mémoire que l’on abandonne. Il est clair que les critères qui président à cette organisation de la mémoire/oubli sont à moduler en fonction des usages ; s’il est probable qu’une bibliothèque universitaire n’a guère d’intérêt à conserver le « Guide de formation de Word 3 » de 2004 pour ses étudiants, l’ouvrage intéresserait un chercheur historien des technologies de l’information. Tel est le rôle tenu par les bibliothèques patrimoniales. De même la nature de l’archive et du document d’archive est autre et exige des réponses différentes, nous y reviendrons.

Nietzsche (Le Rider, 1999) oppose le « mauvais oubli » qui est une lésion de la mémoire, à « l’oubli positif », comme faculté d’inhibition positive. Partant de l’oubli, Nietzsche définit la mémoire comme une mise « en suspens » de l’oubli, une « volonté active de ne pas perdre une impression, d’une continuité dans le vouloir, d’une véritable mémoire de la volonté2 ». C’est à travers le prisme des technologies numériques et ce qu’elles permettent de faire aux objets de la culture que nous souhaitons aborder le thème de l’oubli, dans sa relation dialectique et problématique avec la thématique de la mémoire et de la conservation. En effet, la technologie numérique a, selon nous, déplacé la question de la mise en mémoire (et donc de l’oubli) en la posant ex ante, dès la conception et fabrication des objets culturels. La partition était claire, avant le processus de « numérisation » systématique de la production, entre les professions chargées de mettre au jour et de produire ces objets et celles chargées de les conserver. À l’éditeur le soin de produire via une chaîne complexe une série d’ouvrages sur différents supports, à l’institution patrimoniale celui de les conserver, les cataloguer, en dresser des inventaires scientifiques. La tâche de la mémoire était donc déléguée à d’autres et cette préoccupation n’intervenait pas en amont, dans le processus de fabrication opéré par le créateur de l’objet.

Au contraire, dans la culture numérique la préservation et la conservation mémorielle de ces objets sont posées comme un problème préalable ou au moins contemporain de leur mise à l’existence même. Les producteurs sont exhortés à insérer dans les objets qu’ils fabriquent toute « métadonnée » ou élément susceptible d’assurer leur identification sur le long terme, quand il ne s’agit pas des outils de production eux-mêmes, les logiciels, qui organisent le « traçage » de ces objets et de leur couche descriptive. À titre d’exemple on peut citer la prise de vue avec un appareil connecté sur le web : peuvent être automatiquement captées les données concernant le lieu, l’heure, voire l’identité de la personne qui prend le cliché, informations qui serviront à situer l’objet dans un temps et un lieu déterminés.

Les professionnels confrontés à la patrimonialisation, bibliothécaires, archivistes, conservateurs se trouvent en première ligne de ce mouvement et affrontent donc une double problématique qui donne son titre à cette contribution. Pour une part, il s’agit d’anticiper sur l’état de réception des objets dans un futur plus ou moins éloigné, non pas en prenant en compte leur conservation physique (locaux protégés, conditions de conservation, protection contre les nuisances…) comme dans le monde des objets analogiques, mais en prévoyant et en garantissant leur « exécution » par des programmes et des outils techniques dont on disposera dans le futur et dont on ne connaît actuellement à peu près rien. Comment l’historien de 2114 pourrait-il relire la page d’accueil du site lemonde.fr du 1er juin 2014, revoir le journal télévisé, accéder aux délibérations du conseil municipal de Paris, aux données météorologiques du printemps 2014, et ainsi de suite3

Ceci implique de prévoir toute une ingénierie faite de modèles, de schémas, de référentiels, de normes, tout un appareillage documentaire qui est intimement lié à la fabrication même de l’objet et qui « embarque » en quelque sorte sa mémoire programmée. Ainsi ce n’est pas le tri du temps ou le hasard des conservations qui vise à se prémunir de l’oubli, mais une action volontariste, intégrée à la structuration même des objets médiatiques et culturels. L’appréhension de l’oubli doit se comprendre ici au double sens du terme : appréhender/saisir, et appréhender/craindre ; paradoxalement notre société de la redondance et de l’émission permanente d’informations craint de se retrouver sans mémoire pour des raisons qui sont à la fois logistiques et sémiotiques pour reprendre une expression d’Yves Jeanneret (Jeanneret, 2008). Il y a donc une tension entre la volonté de « tout » garder et la crainte que le tri nécessaire ne sache pas, à l’inverse, distinguer le « bon » du mauvais ».

C’est sans doute la première fois dans l’histoire qu’une société est amenée à se poser consciemment la question de ce qu’elle doit laisser comme traces pour le futur avec autant d’acuité.

Nous nous intéressons ici à ce vouloir c’est-à-dire à une activité organisée qui vise à gérer l’oubli dans les deux dimensions que lui donne Nietzsche, une lutte contre le mauvais oubli qui risque d’altérer des pans de mémoire4 que l’on juge utile pour la continuité de l’activité humaine, et une mise en norme de l’oubli positif, dont on inscrira les instructions dans des formats logiciels destinés à gérer le cycle de vie de l’information et de l’objet.

L’appréhension de l’oubli…

L’appréhension (au sens crainte) de l’oubli se manifeste principalement, chez des communautés comme les archivistes et les bibliothécaires, par deux effets qui relèvent de la nature des techniques employées pour créer les documents et les œuvres numériques : l’obsolescence prévisible des supports, et celle des formats. La simple conservation de l’objet, y compris dans de bonnes conditions physiques, ne suffit pas en soit à garantir l’accès à l’information contenue sur le support, ni que l’intégralité de l’information sera « rejouable » de manière efficace dans d’autres environnements techniques à venir. Ces questions, plus ou moins prégnantes selon la nature des documents envisagés, ne font que s’accroître à mesure d’une part de la croissance vertigineuse de la production numérique, d’autre part de la complexification elle aussi croissante des objets concernés : aux images fixes puis animées succèdent la 3D, les hologrammes…

L’appréhension (au sens saisie, compréhension, prise en compte) de cette part d’oubli provoquée par la technique engendre à son tour une réponse qui emprunte à la logique et à ce que nous qualifions de processus d’écriture : il faut décrire, modéliser, écrire non seulement les « contenus » mais aussi les formes, pour qu’elles puissent être resaisies plus tard indépendamment du paradigme technologique qui les a encadrés à leur naissance. Un langage de programmation informatique aura eu beau disparaître, il convient de mettre la matière à disposition de telle façon qu’elle puisse être relue, demain, en mobilisant le langage informatique qui sera en vigueur en fonction des technologies disponibles. L’approche par la standardisation et la modélisation ne constitue pas une réponse suffisante en soi, car elle ne permet pas de retranscrire les contextes d’usage, ni de prendre en compte les dimensions spécifiques de chaque donnée dans le contexte d’interprétation lié à ses espaces de pratiques (Despres-Lonnet, 2014).

Il se construit donc tout un environnement à la fois technique et logique qui constitue une sorte d’enveloppe, une manière de chakra des objets de la culture numérique ; faites de descriptions, de modèles, d’instructions, ces enveloppes acquièrent une existence en soi, à la fois distincte et insérée par programme dans les objets eux-mêmes. Ceci pose un redoutable problème de régression à l’infini, car cette « enveloppe » elle-même doit être conservée, et toute sa propre vie tracée. Tout se passe donc comme s’il fallait sans cesse rajouter de la mémoire à de la mémoire, des couches de données à des couches de données pour conjurer l’oubli. Les normes et les écrits professionnels se font l’écho de cette exigence (Burnel, 2013).

Cette question est d’autant plus vive que la dissémination et démultiplication des mêmes objets, dans une amplitude jamais égalée pose la question du tri, de l’élimination et de l’effacement réel de toutes les traces pour « faire oubli ». Ceci est évidemment posé à travers la notion de « droit à l’oubli » pour ce qui concerne l’individu et son empreinte numérique sur internet, mais elle est également posée par l’archivage légal. Lorsque la loi impose de détruire un certain type de document à l’issue de sa « durée d’utilité administrative » (DUA), il importe de garantir qu’il n’existe pas une copie numérique conservée dans le disque dur de son producteur ou dans tout autre silo informatique de l’organisation concernée, voire en ligne.

Un corollaire de cette première difficulté est donné par le fait que l’on ne sache ou ne puisse pas garantir avec certitude si, de toutes ces copies et recopies d’un même message, l’intégrité n’en a pas été altérée. Est-ce que la notion de « même » peut s’appliquer à un document numérique qui, non seulement a pu changer d’aspect sinon de contenu lors d’une opération de duplication (la rendition PDF par exemple), mais encore risque d’être reconstitué de manière altérée en fonction des conditions techniques de lecture à disposition du destinataire. Il se produit ainsi une variabilité problématique et qui provoque une tension entre l’appréhension de l’oubli et la construction d’une mémoire puisque d’un côté on peut voir la démultiplication comme un garant contre la perte (on peut se dire qu’il y aura toujours eu une trace conservée, même accidentellement quelque part), mais d’un autre côté on ne peut pas être parfaitement sûr que cette trace-ci est l’équivalent strict de cette trace-là, que la « copie » soit conforme à « l’original ». Nous mettons évidemment ces termes entre guillemets, tant ces notions sont sujettes à interrogation dans le contexte de la production numérique, comme elles l’ont été une première fois avec la « reproductiblité technique » dont parlait Benjamin (2008) pour la photo et le cinéma. Si la notion « d’original » perd toute base matérielle, elle est néanmoins retracée via des technologies qui répondent à des exigences réglementaires comme l’horodatage des documents, ou encore le visa ou la signature électronique. Il s’agit de marquer de façon volontaire ce qui « fait foi » ce qui désigne, de manière arbitraire, tel document comme étant un original et toutes ses reproductions ultérieures des « copies ». La démultiplication, qui est la marque du numérique, permet une certaine conjuration de l’oubli. On sait qu’un document pourra être indéfiniment reproduit, mais rien ne garantit son intégrité en dehors de son traitement dans des systèmes spécifiques équipés pour la garantir.

… et la construction de la mémoire

Traitant ici de la mémoire et de l’oubli, donc du temps – celui qui passe et celui qui reste –, il nous a paru intéressant de réfléchir aux conditions de la pérennité de ces objets qui se caractérisent par de nombreux traits spécifiques dont nous allons développer dans quelques lignes les principaux qui engagent notre propos. Nous avons déjà évoqué la question du volume (les outils du numérique permettent une prolifération comme il n’y en a jamais eu dans l’histoire5, que l’on songe seulement par exemple à la quantité phénoménale de photographies qui sont prises à chaque instant dans n’importe quelle circonstance de la vie) et celle de la rapidité de dissémination (tant la production de ces objets est quasiment inséparable aujourd’hui de leur diffusion dans la mesure où les outils qui les produisent sont la plupart du temps connectés).

Nous nous attacherons avant tout ici à la façon dont la fabrication de l’objet lui-même se pense dès le départ comme fabrication de la mémoire, construction des conditions pour que cet objet perdure dans le temps non seulement dans sa configuration physique initiale mais aussi en anticipant toutes ses (re)configurations futures et surtout en garantissant que l’accès au contenu et au sens du message puisse être préservé. Cette préservation se fait au moyen de machines (matérielles et logicielles) qui ont besoin de connaître un certain nombre de caractéristiques afférentes à ces objets pour en garantir la pérennité. La communauté internationale des bibliothécaires a mis au point, avec PREMIS6, un dictionnaire de données dont le but est de définir « les métadonnées de préservation comme information qu’un silo de données (repository) utilise pour supporter le processus de préservation numérique ». Le dictionnaire de données s’attache ainsi à modéliser pour les décrire, des entités, des événements, des agents et des droits, en partant du principe qu’intégrer sur le long terme un objet que l’on aura préservé, ce n’est pas seulement pouvoir accéder à son contenu, mais aussi savoir qui l’a créé ou produit (agents), connaître les différentes transformations qu’il a subies (événements), les droits afférents… De ce fait, PREMIS ne s’engage pas à décrire le contenu car ceci peut être fait en recourant à d’autres modèles dont c’est la vocation (EAD pour les archives publiques par exemple) ; se pose alors la question de l’emboîtement des différents niveaux de modèles de données. La complétude de traitement d’un objet exige ainsi que l’on combine ou emboîte plusieurs de ces modèles dont l’objectif est certes de garantir la conservation de l’objet mais qui ont, à leur tour, besoin d’être conservés. C’est une des caractéristiques de la lutte contre l’oubli numérique qui, à notre sens, pose le plus grand problème au plan épistémologique. Nous sommes ici en risque d’une régression à l’infini, car chaque couche dédiée à la préservation doit être elle-même préservée et ainsi de suite. Dans le domaine de l’archivage, les actions de traçage de l’archive et des interventions qu’elle subit doivent faire l’objet d’une journalisation qui est elle-même archivable dans des conditions contraintes par la norme, voire par la loi.

Les conditions d’une mémoire numérique

La mémoire, comme l’oubli, se trouve confrontée, dans le cas du numérique, à un certain nombre de caractéristiques liées à des objets labiles, fragiles, techniquement complexes, soumis à obsolescence. Chacune de ces caractéristiques mérite d’être regardée de près pour voir comment elle peut se révéler ou bien génératrice d’oubli, ou bien porteuse d’une garantie de mémoire.

La répétabilité

Bachimont (2013) opère une distinction entre les « médias perceptifs » et les « médias technologiques », les premiers ne nécessitant aucun appareillage pour être manipulés et perçus, les seconds ayant besoin d’une machinerie ; ce mouvement commence d’ailleurs dès la reproduction des médias analogiques de l’image et du son, avant même le passage au numérique.

Le fait que les objets culturels numériques ne soient pas accessibles en dehors de l’activation des médias technologiques signifie que ces objets ne doivent pas seulement rester disponibles et être conservés, comme le sont les objets d’art dans les musées ou les livres dans les bibliothèques, ils doivent être rejouables, répétables.

Cette répétabilité est une caractéristique particulière qui s’inscrit dans une architecture unique des objets numériques : ceux-ci sont porteurs à la fois de leur contenu, de leur forme (présentation) et de leur structure. Au-delà de ces considérations générales sur la nature de ces objets, revenons sur les caractéristiques particulières qui vont avoir affaire à la question de leur conservation.

La notion de répétabilité implique donc cette conservation de la structure, mais il faut que celle-ci soit rendue indépendante de la technologie en vigueur, dans la mesure où il est certain que dans un avenir plus ou moins lointain nous ne disposerons plus des mêmes supports ni des mêmes plates-formes logicielles. L’industrie du logiciel a pour l’instant fourni une réponse qui reprend la logique du fac-similé avec les formats PDF et PDFa qui sont censés respecter et reproduire la forme sous laquelle le document a été primitivement donné à voir. En dehors de ce cas, la répétabilité suppose que l’on ait conservé les éléments de structure afin de reproduire au plus près l’agencement tel qu’il avait été prévu de manière originale. Ceci n’est pas sans poser la question de la temporalité, qui renvoie, encore une fois, à la logique du contexte. Une émission de radio peut-être « podcastée », parfois il peut s’agir d’un fragment de cette émission, par exemple une chronique dans une tranche d’informations. Ce n’est pas tout à fait la même chose d’écouter la chronique dans son flux, à l’heure prévue par le programmateur dans une grille qui a du sens, et de l’extraire de son contexte pour l’écouter de manière isolée. Il est clair malgré tout que, sans s’éliminer l’un et l’autre, les deux usages sont bien partis pour s’installer dans la durée ce qui pose la question de la granularité de la mémoire et de l’oubli.

La granularité

La notion de granularité renvoie à la logique d’une écriture par fragment. Elle suppose une possibilité de recomposition permanente, mais on aurait tort de penser que la maîtrise de ce réagencement pourrait être entièrement laissée aux algorithmes et automatismes des applications. En effet l’assemblage de fragments divers relève d’un projet éditorial, et la dimension de cohérence de l’ensemble du nouveau contenu ainsi constitué ne peut pas être évacuée. Là encore deux modèles cohabitent et cohabiteront sans doute encore longtemps comme on peut le voir avec l’exemple de la musique. Le modèle économique de la vente de musique a décomposé l’unité classique de l’album, mais ce dernier reste encore prégnant dans la création musicale. Sans même parler de la musique classique où l’on peut difficilement intervenir dans l’unité de l’œuvre (bien que les collections d’ouvertures ou d’arias et autres morceaux de bravoure aient toujours fait partie de l’offre discographique), la musique de variété reste très fortement attachée au modèle de l’album composé d’une dizaine ou douzaine de titres, que l’on peut certes écouter ou télécharger à l’unité, mais qui sont présentés comme composantes d’un ensemble cohérent et clos. Parallèlement, ces pièces peuvent se trouver recyclées dans d’autres ensembles, dans des playlists

Manovitch (2005) oppose la modularité à la finitude. Il fait de la modularité un phénomène très récent (quelques décennies) et oppose la « modularité de masse » telle que la connaît l’industrie fordiste depuis le début du xxe siècle, à la modularité dans le domaine culturel, ce qui lui permet d’affirmer de façon paradoxale que « nous n’avons jamais été modulaires ». En fait, aussi bien la génétique des textes que l’histoire des techniques ou la généalogie des « lieux de savoir » (Jacob, 2010) nous montrent dans des domaines différents, que la création humaine est toujours faite de transferts, d’emprunts, de relocalisations d’éléments dans de nouvelles formes, qui s’imposent ensuite culturellement. L’art culinaire pourrait en être une très bonne illustration. En revanche la programmation informatique a créé les conditions d’une expansion considérable de ces mouvements qui sont à la fois plus faciles, plus extensifs, et culturellement ancrés de manière forte dans la manipulation même des outils. Le fait que le « couper-coller » soit une fonction essentielle de la plupart des programmes informatiques permettant de fabriquer des documents en dit long sur la façon dont cette capacité est mise à profit pour recycler des éléments qui se trouvent ensuite « dilués » au sein d’autres ensembles et dont on a du mal à reconstituer l’intégrité et l’originalité. Ceci renvoie à une troisième grande caractéristique qui est celle de la traçabilité.

La traçabilité

Par ailleurs, le document numérique est inséré dans un ensemble logistique et logiciel qui lui fait subir un certain nombre de traitements et de transformations qui font également l’objet d’une mémorisation. Dans le cas de l’archivage à valeur probatoire, il s’agit même d’une nécessité légale. Tout ce qui intervient sur et autour du document doit être tracé et mémorisé. Ces activités de « journalisation » doivent elles-mêmes faire l’objet de mise en mémoire afin d’être convoquées en cas de contentieux ou d’enquête judiciaire. La mémoire documentaire ici se fait plurielle : mémoire de l’objet, mémoire de son effectuation technique, mémoire de ses mouvements : combien de fois son format a-t-il été modifié, quand, par qui, quelles personnes y ont eu accès, quand ?

Ce que Louise Merzeau (2013) évoque à propos des traces laissées par les personnes peut être également appliqué aux fragments granulaires qui composent et recomposent les objets de la culture numérique. En effet, à travers ce qu’elle appelle la déliaison, on note un détachement de la trace depuis l’individu qui l’a émise et une perte de contextualisation qui permet de comprendre le sens de cette trace. Cette notion de déliaison peut parfaitement s’appliquer aux bribes logicielles et aux fragments de texte ou d’objets qui sont indéfiniment recyclés dans l’ingénierie complexe du numérique. Que se passera-t-il demain si l’on oublie, non pas ces objets ou ces fragments eux-mêmes, mais les éléments de liaison qui les ont aidés à être et à leur donner du sens à un instant t, une cohérence et une intelligibilité dans un ici et maintenant par définition non pérenne ? On se risque ici à une mémoire lacunaire, fragmentée, mitée d’oubli. On dira que ce n’est en rien nouveau, dans la mesure où une bonne part du travail du paléontologue, de l’archéologue, du chartiste consiste à rassembler des fragments épars et à extrapoler sur la forme authentique originale. Ce qui est nouveau c’est que l’objet numérique cherche d’emblée à conjurer cet oubli en se dotant d’infrastructures logiques (schémas, structure et métadonnées) dont l’objectif est de garantir ainsi la possibilité d’une mémoire globale. Chaque fragment est identifié et peut être ainsi tracé ce qui permet de reconnaître non seulement son appartenance à un ensemble initial mais également tous les cheminements qu’il a suivis et donc les recyclages qu’on lui a fait subir. La Digital Library Federation, qui réunit un certain nombre de grandes bibliothèques patrimoniales comme la Librairie du Congrès américaine a ainsi travaillé à l’élaboration de METS (Metadata encoding and transmission standard) qui est un schéma XML permettant de relier entre eux différents objets ou parties d’objets.

De nombreuses institutions pensent nécessaire de retenir des métadonnées structurelles qui décrivent, ancrent et organisent les composants d’un objet numérique de façon à ce que son intégrité soit assurée même lorsque ses composants sont stockés dans différents espaces. Et, lorsqu’un conteneur d’objets numériques cherche à partager des métadonnées concernant l’objet, ou l’objet lui-même, avec un autre conteneur ou avec un outil dont le rôle est de restituer l’objet, l’usage d’une syntaxe connue pour le transfert de données entre conteneurs et entre outils améliore grandement la facilité et l’efficacité de ces transactions7.

Ainsi, dans une visée seconde, on peut imaginer qu’une partie de l’objet aurait été effacée, mais que la trace de sa présence aurait été conservée, ce qui engage une autre forme de remémoration que celle qui préside à la pratique des chercheurs travaillant sur des traces analogiques.

Recomposition et « remix »

Ce que nous avons évoqué jusqu’à présent relève de la préservation et de ce que l’archivistique appelle « l’intégrité » à savoir la répétabilité du même. Il s’agit effectivement d’un enjeu de mémoire important, mais, comme nous le voyons tout au long de cet article, le numérique implique des mouvements contradictoires, tendances et contre-tendances qui complexifient considérablement la donne. En effet, si des fragments sont à conserver pour être rassemblés dans l’ordre voulu par le projet éditorial initial, ce n’est pas toujours cette volonté qui préside à l’agencement des sources. La plasticité de l’objet numérique a de son côté suscité des pratiques culturelles qui renouvellent avec facilité des mouvements artistiques connus tel que le collage, l’emprunt, la citation. Cheliotis et al. (2014) étudient ce phénomène d’un autre point de vue, en analysant les pratiques culturelles connues, notamment dans l’univers de la musique sous la forme du « remix ». L’exemple de la musique peut être emblématique, mais ces pratiques de recomposition par fragments sont aussi intéressantes pour les éditeurs, les fournisseurs d’information, les vidéastes… Leur étude montre qu’il existe un phénomène de concentration, un tropisme, qui fait que les morceaux les plus réutilisés pour le « remix » sont aussi ceux qui obtiennent le plus de visibilité, ce qui pose évidemment la question d’une surreprésentation de certains éléments, lesquels feront, dans notre optique, également l’objet d’une « sur-conservation ». Ainsi, à travers la pratique du remix, des morceaux de musique ou des fragments d’objets numériques se réinsèrent dans d’autres ensembles, se recomposent en un vaste kaléidoscope dont on peut se demander jusqu’où il mérite, lui aussi d’être sauvé de l’oubli. Ceci ne pourra se faire qu’à condition, comme il a déjà été dit, de tracer tous ces liens et ces repositionnements, au-delà de la conservation des objets eux-mêmes.

Les métadonnées, une sémiotique contre l’oubli ?

La numérisation croissante des activités et leur documentarisation ont introduit une notion importante en matière de gestion, et cela vaut pour la gestion sur le long terme : les documents et objets numériques sont porteurs de plus que ce qu’ils laissent à voir, à entendre et à regarder. Ils disposent bien sûr de leur appareillage technique, de leur enveloppe, mais ils intègrent également un appareillage descriptif sous la forme de ce qu’on a appelé les « métadonnées » et dont une partie reprend les formats documentaires qui existaient jusque-là en dehors de l’objet lui-même : fiches de bibliothèques, cartels d’œuvres dans les musées, éléments descriptifs, notions critiques…

La question de l’ouverture future des documents ou des œuvres, de leur répétabilité relève bien à notre sens d’une sémiotique, car elle suppose que des individus situés à une grande distance temporelle et culturelle devront disposer d’un maximum de clés – au-delà des aspects techniques que nous avons déjà évoqués – pour saisir ou reconstituer la signification des objets qui leur seront ainsi exposés. Ces adjuvants à la mémoire font une sorte de pont entre une anticipation présente de la mémoire et une mobilisation future de celle-ci pour reconstituer un passé. Bruno Bachimont (2013) montre à quel point nous sommes ainsi enfermés dans une vision déformée de la mémoire et de l’oubli car la pratique présente vise à projeter une vision future de ce présent sans possibilité de prendre en compte ce que sera le regard de ce futur sur son passé qui est notre présent. Et surtout que garder ? Au nom de quoi le filtre de l’oubli, le tamis de la sélection doit-il éliminer telle ou telle trace actuelle ? Si la loi oblige à détruire après dix ans toute trace des dossiers individuels des bénéficiaires d’une aide sociale comme le RSA, envoyant ainsi à la mémoire individuelle le cas singulier, la mémoire sociale sera intéressée par les documents de synthèse, les compilations statistiques, les textes réglementaires en vigueur.

Les métadonnées techniques sont utilisées pour conjurer un oubli technologique qui relève de l’oubli accidentel ; les métadonnées juridiques, en régulant l’accès aux informations relève de l’organisation de l’oubli profond, ce sont elles par exemple qui permettent aux systèmes de gérer les embargos, les périodes de consultation ; les métadonnées archivistiques enfin, gèrent les différentes sortes d’oubli en désignant le sort final des objets à expiration d’une durée d’utilité administrative, sort final qui peut être la conservation ad vitam ou la destruction. La décision de destruction relève de l’oubli profond car elle est en principe programmée pour éliminer toute trace d’une information. Dans le cas de certaines informations de défense par exemple, cela va même jusqu’à la destruction physique du support (disque dur) sous le contrôle d’un officier.

Ces notions, rappelées ici très succinctement, concernent au sens strict les métadonnées telles qu’elles sont théorisées et pratiquées par les professions du traitement de l’information : archivistes, bibliothécaires, documentalistes… En tant que telles, les relations entre les objets ne sont pas considérées comme des métadonnées, cependant, dans la perspective sémiotique qui est la nôtre, nous proposons de considérer tout le système complexe d’enchaînement des objets entre eux qui se fait par le truchement des liens et des graphes comme appartenant à la sphère des métadonnées. Nous sommes en effet confrontés à un paradigme au sein duquel les agencements entre objets numériques, leur confrontation, leur dissémination, leurs relations sont autant source d’enseignement sur la vie sociale, politique et économique dans toutes ses dimensions que les « contenus » eux-mêmes. Le mouvement d’interconnexion des données dont on parle actuellement avec le Big data, l’Open data et le linked open data – bien que chacune de ces notions recouvre une réalité différente – crée tout un réseau de relations qui se manifeste non pas par des documents fixés et stabilisés, mais par une émission constante d’états (au sens informatique du terme) qui consignent en permanence les éléments d’une réalité sans cesse en mouvement. La conservation de l’intégralité de ces flux, en temps réel et sur le très long terme ne sera pas possible, à supposer même qu’elle soit souhaitable et/ou utile. Quand bien même elle le serait, suffirait-elle à rendre compte de ce que ce mouvement permanent induit sur la production même d’informations ? Il faut dès lors imaginer un autre rapport à la mémoire et à l’oubli, un rapport qui sache rendre ce qui appartient au mouvement et qui renonce à l’accumulation systématique des choses fixées. Les objets de consommation alimentaire affichent, sur leur conditionnement une « date de péremption ». Si, a priori, la valeur patrimoniale d’un objet est sans limites dans le temps (c’est même au contraire le temps qui renforce sa valeur patrimoniale, ainsi d’une tasse romaine, objet utilitaire s’il en est qui devient objet de mémoire dans sa vitrine de musée), la valeur d’utilité d’un objet numérique peut être calculée et délimitée, et ensuite seulement mise en balance avec sa valeur patrimoniale. Dans la pratique archivistique, on distingue la « durée d’utilité administrative », telle qu’elle est définie par la loi, de la durée patrimoniale.

Parmi les professions dédiées à la préservation des documents, celle des archivistes est probablement celle qui aujourd’hui a été le plus loin dans la réflexion et la pratique sur la mise en œuvre de formats numériques susceptibles de restituer à l’identique sur la durée des objets conçus en un temps particulier. Dans la mesure où elle ne met pas seulement en œuvre des recommandations patrimoniales, mais aussi des contraintes légales, l’archivistique doit veiller particulièrement au respect de l’intégrité des sources. Or, comme nous l’avons vu plus haut, il n’y a rien de plus instable et de labile qu’un document numérique. Quand bien même il n’y en aurait aucun autre, la simple variation de support technique pose déjà un problème de fond sur la reconnaissance du fait que cet objet d’aujourd’hui, sur un support X, dans un format X est bien exactement le même dans son contenu que celui qui avait été créé hier sur un support Z dans un format Z. Cette question est redoutable, pas seulement en termes techniques mais parce qu’elle pose justement la question de l’exactitude de la mémoire et surtout de la fixation d’un moment dans quelque chose qui relève désormais du flux continu plus que de la séquence déterminée.

C’est pourquoi la pratique de l’archivage a vu son esprit même changer, passant d’intervention post festum avec le recueil de documents achevés et archivables à une activité de marquage des flux, qui capte le moment précis où une pièce, un document, devient archive et en arrête dès lors un certain nombre de traits caractéristiques qui devront durer autant que l’œuvre ou le document. C’est précisément le rôle que jouent les métadonnées, elles-mêmes inscrites dans des formats précis, pour dire le document, dire son avenir, en décrire les mécanismes de mémoire ou en programmer l’oubli. À la « mémoire de la volonté » dont parle Nietzsche fait ici écho une volonté de mémoire qui s’incarne dans des instructions informatiques guidées par la norme.

Conclusion, un entrelacement continu de traces de mémoire et d’instructions pour l’oubli

Le travail de fond effectué par les équipes réunies autour de Christian Jacob (2010) interrogeant les « lieux de savoir », montre à quel point il est compliqué et minutieux de retrouver la trace des « façons » du « faire » et des objets du faire pour les époques antérieures, que l’on a tendance à aborder par les objets qu’elles nous ont légués et moins par les supports du faire, peut-être jugés moins nobles, qui ont servi à les produire. L’un des déplacements que connaît notre époque est le fait que la trace, les relations, les appariements, les mises en relations, les mises en sens peuvent avoir autant d’importance que l’objet lui-même. La façon dont un tweet évolue, est retweeté, repris, édité, commenté, imprimé, transformé est peut-être aussi importante, dans certains cas, que le contenu des 160 caractères du tweet original lui-même et donc plus digne d’être sauvé de l’oubli. En choisissant de travailler sur un des aspects que la « numérisation » croissante des activités et de leurs produits bouleverse et qui est lié à la façon dont on pourra et devra conserver ces objets par nature instables et fragiles sur le temps long, nous avons voulu interroger la façon dont on mobilise la technique (dans un objectif de préservation) pour contrecarrer d’autres effets de la même technique (le numérique porte en lui-même sa propre propension à l’oubli).

Combien d’objets des cultures antiques ont-ils été laissés à eux-mêmes c’est-à-dire éventuellement à l’abandon, dès lors que leur préservation ultérieure suppose non seulement une volonté, mais également des infrastructures (lieux, musées, techniques d’entretien et de restauration…) qui relèvent d’un projet conscient et affirmé de préservation ? Combien d’entre eux (à l’instar des centres-villes de nombreuses capitales européennes reconstruits après-guerre) ont même été reconstitués fidèlement pour pallier l’usure du temps ? Mais à l’inverse combien d’entre eux recelaient déjà, dans leur forme même, dans leur matérialité, dans l’esprit même de leurs concepteurs ou de leurs fabricants, les instructions et les outils pour organiser leur pérennisation sur des décennies, voire des siècles ? Émis dans le cadre de sociétés qui ne se savaient pas forcément « mortelles », ces objets ne contiennent pas en eux-mêmes les instructions de leur propre sauvegarde. Or, c’est bien ce que nous entendons montrer ici : les objets de la culture numérique contiennent potentiellement tout ce qu’il faut pour que la question de leur oubli (voulu ou redouté) soit intégrée dès le départ à leur mise en œuvre, faisant de la thématique de l’oubli un élément central de la production numérique.

1 Comme toujours, il est délicat de faire la part des choses parmi tous les exercices de futurologie qui sont proposés par les organismes de

2 Nietzsche, La Généalogie de la morale, dans Œuvres, Paris, Robert Laffont, vol. 1, 1993, cité par Jacques Le Rider, « Oubli et mémoire dans la

3 Sans aller si loin, nous avons utilisé pour notre travail de recherche sur les médias (Cotte, 2011) les archives du « Internet Archive Wayback

4 Cette lutte peut passer en premier lieu, dans le cas de certains supports, par des campagnes de préservation et restauration physique des documents

5 Pour citer simplement deux exemples, les utilisateurs de You Tube mettent en ligne chaque minute l’équivalent de 48 heures de vidéo ; il s’

6 Premis Data Dictionary for preservation metadata, version 2.2. juillet 2012 (http://www.loc.gov/standards/premis).

7 METS, Metada Encoding and Transmission Standard : Primer and Reference Manual, Digital Library Federation, 2010 (www.loc.gov/standards/mets/

Bibliographie

Bachimont, Bruno (2010), « La présence de l’archive : réinventer et justifier », Intellectica, n° 53-54, p. 281-309.

Benjamin, Walter (2013), L’œuvre d’art à l’ère de sa reproductibilité technique, Paris, Petite Bibliothèque Payot, 144 p.

Burnel, Anne (2013), « Vers une nouvelle pratique archivistique », dans Quand l’archivage devient électronique, Actes du colloque international organisé par les Archives diplomatiques et les Archives nationales, 5-6 février 2013 p. 15-24.

Cheliotis, Giorgios, et al. (2014), The Antecedents of Remix, CSCW 2014, Building on others, Baltimore, p. 1011-1022.

Cotte, Dominique (2004), « Le concept de “document numérique” », Communication et Langages, n° 140, p. 31-41.

Cotte, Dominique (2011), Émergences et transformations des formes médiatiques, Paris, Lavoisier, 269 p.

Despres-Lonnet, Marie (2014), Temps et lieux de la documentation. Transformation des contextes interprétatifs à l’ère d’internet, Mémoire d’habilitation à présenter des recherches, Université de Lille-3, 209 p.

Doueihi, Milad (2008), La grande conversion numérique, Paris, Seuil, 2008, 272 p.

Doueihi, Milad (2013), Qu’est-ce que le numérique ? Paris, PUF, 55 p.

Eco, Umberto (1991), La strutturaassente, La ricercasemiotica e il metodostrutturale, Milan, Bompiani, 425 p.

Jacob, Christian (2010), Lieux de savoir, vol. 2 Les mains de l’intellect, Paris, Albin Michel, 985 p.

Jeanneret, Yves (2008), Penser la trivialité, vol. 1 La vie triviale des êtres culturels, Paris, Lavoisier, 2008, 266 p.

Le Rider, Jacques (1999), « Oubli, mémoire, histoire dans la Deuxième considération inactuelle », Revue germanique internationale, 11, p. 207-225 [En ligne] DOI : https://doi.org/10.4000/rgi.725.

Manovitch, Lev (2005), Remixing and Remixability, http://manovich.net/content/04-projects/046-remixability-and-modularity/43_article_2005.pdf

Merzeau, Louise (2013), « L’intelligence des traces », Intellectica, n° 59.

METS, 2010, Metadata Encoding and Transmission Standard : Premier and Reference Manual, Digital Library Federation, 148 p. (www.loc.gov/standard/mets/METSPrimerRevised.pdf).

Wievorka, Michel (2013), L’impératif numérique, Paris, CNRS Éditions, 60 p.

Notes

1 Comme toujours, il est délicat de faire la part des choses parmi tous les exercices de futurologie qui sont proposés par les organismes de prévision ou les cabinets de consultants (cf. par exemple Gartner’s 2014 Hype Cycle for Emerging Technologies (disponible en ligne sur page web http://www.gartner.com/newsroom/id/2819918). Ces organismes sont trop liés au marché pour qu’on puisse réellement accorder un crédit scientifique à leurs prédictions. Néanmoins, on pourra considérer que, pour le sujet qui nous occupe, certaines avancées techniques ne feront qu’accentuer les défis qui se posent en termes de mémoire. Des thèmes comme celui de la réalité augmentée ou des lunettes « Google » posent la question de la conservation d’éléments qui sont reliés à des objets physiques et qui prennent leur sens dans la relation temporaire et contextuelle avec ces objets (monuments, paysages…).

2 Nietzsche, La Généalogie de la morale, dans Œuvres, Paris, Robert Laffont, vol. 1, 1993, cité par Jacques Le Rider, « Oubli et mémoire dans la Deuxième Considération inactuelle », Revue germanique internationale [en ligne], n° 11, 1999, p. 207-225.

3 Sans aller si loin, nous avons utilisé pour notre travail de recherche sur les médias (Cotte, 2011) les archives du « Internet Archive Wayback Machine » (https://archive.org/index.php) pour retrouver les pages d’accueil des journaux français depuis 1995. Il s’agit d’un outil très précieux puisque l’on peut revoir ainsi les formats d’édition des tout premiers temps du web. Néanmoins, dans certains cas l’image est altérée parce que certaines composantes n’ont pas pu être conservées, comme des logos (images en .gif) à la place desquelles apparaît une croix rouge.

4 Cette lutte peut passer en premier lieu, dans le cas de certains supports, par des campagnes de préservation et restauration physique des documents menacés par des phénomènes destructifs (insectes, syndrome du vinaigre pour les films…) afin de les conserver en bon état.

5 Pour citer simplement deux exemples, les utilisateurs de You Tube mettent en ligne chaque minute l’équivalent de 48 heures de vidéo ; il s’échangerait, d’après des chiffres donnés par Twitter, 175 millions de tweets chaque jour (Source : http://wikibon.org/blog/big-data-statistics/).

6 Premis Data Dictionary for preservation metadata, version 2.2. juillet 2012 (http://www.loc.gov/standards/premis).

7 METS, Metada Encoding and Transmission Standard : Primer and Reference Manual, Digital Library Federation, 2010 (www.loc.gov/standards/mets/METSPrimerRevised.pdf)

Citer cet article

Référence électronique

Dominique COTTE, « La culture numérique entre l’appréhension de l’oubli et la fabrication de la mémoire », K@iros [En ligne], 2 | 2017, mis en ligne le 25 mars 2017, consulté le 28 mars 2024. URL : http://revues-msh.uca.fr/kairos/index.php?id=213

Auteur

Dominique COTTE

Professeur des universités en Sciences de l’Information et de la communication, laboratoire Geriico, Université de Lille

Droits d'auteur

Creative Commons Attribution 4.0 International (CC BY 4.0)