Qu’est-ce qui est commun sur le web ?

Exemple avec l’information scientifique et technique

DOI : 10.52497/revue-cmh.196

Index

Mots-clés

Internet, bien commun, science ouverte

Keywords

internet, common good, open science

Plan

Texte intégral

L’information, nous dit l’économie industrielle, est un « bien public » (Samuelson, 1964), dès lors qu’elle a la particularité d’être non rivale (elle peut être consommée simultanément par un nombre arbitraire de consommateurs) et non excluable (on ne peut exclure personne de sa consommation). Cela ne tient toutefois qu’à condition de la considérer indépendamment de son support physique (Sonnac, 2013). Lorsque l’information est fixée quelque part en effet, sur un DVD, les pages d’un journal ou d’un livre, il y a rivalité (la rupture de stock est possible) et excluabilité (l’objet est payant). On peut donc fixer un prix, cadrer la production d’information en définissant un modèle économique, et contrôler sa circulation.

Avant Internet, le seul type d’information qui échappait à cette logique était l’information diffusée par les stations de radio et les chaînes de télévision. Difficile d’empêcher quelqu’un de regarder une émission dès lors qu’il dispose pour cela du matériel nécessaire. En sciences de l’information et de la communication, on associe ce type d’information au modèle « de flot », alors que les informations fixées sur des supports physiques individuels participent d’un modèle qualifié « d’éditorial » (Miège, 2017). La principale différence entre ces deux modèles tient au fait que dans le cas du modèle éditorial on peut faire payer les consommateurs, alors que dans le cas du modèle de flot la gratuité aura tendance à s’imposer, obligeant les producteurs d’avoir recours à d’autres sources de financement, notamment la publicité ou les petites annonces. Grâce aux appareils appelés « décodeurs » (notamment le décodeur de Canal Plus), la télévision a réussi à rendre certaines chaînes payantes, excluant de cette façon certains individus. Le modèle de flot avait ainsi trouvé à son tour comment faire de l’information une marchandise. L’information émise sur les ondes radio, en revanche, restait non excluable. Les émissions restèrent, par nature, des biens publics. L’exclusion et la rivalité pouvaient concerner les terminaux de réception, certaines personnes pouvaient être exclues de la consommation car elles se trouvaient à des endroits où les ondes ne parvenaient pas, cependant l’information elle-même, intrinsèquement, demeurait un bien public.

Lorsque le web est apparu dans les années 1990, beaucoup y ont vu l’occasion de faire pour les contenus textuels, les images et les vidéos, ce que la radio avait fait avec le son. L’information circulerait librement, partout, toujours et gratuitement. Cela serait d’autant plus possible que Tim-Berners-Lee en créant les trois normes techniques fondatrices du web (HTML, HTTP et URL) n’avait pas cherché à en tirer parti financièrement (Berners-Lee, 1999). Il mit également en place une politique de normalisation visant à empêcher les détenteurs de brevet de tirer parti financièrement de la démocratisation du web (Russel, 2011). En plus d’accéder à l’information sans entrave, il était possible de la manipuler et d’en émettre soi-même. Ainsi a-t-on vu naître les « biens communs informationnels » pouvant être « créés, échangés et manipulés sous forme d’information, et dont les outils de création et le traitement sont souvent eux-mêmes informationnels (logiciels). Il peut s’agir de données, de connaissances, de créations dans tous les médias, d’idées, de logiciels. Les biens communs informationnels sont des biens publics parfaits au sens économique » (Aigrain, 2005, p. 266).

L’illustration la plus probante du rêve nourri par l’existence de ces biens communs informationnels est sans doute la déclaration d’indépendance du cyberespace, adressée aux dirigeants politiques et aux entreprises du monde entier à l’occasion du forum de Davos en 1996, par John Perry Barlow, fondateur de l’Electronic Frontier Foundation (EFF). Réagissant à la loi de réforme des télécommunications de 1996 adoptée la veille, Barlow y déclarait l’existence d’un « espace social global » créé à la suite d’un « acte de la nature » et au sein duquel « aucun droit » n’avait cours. « Notre monde, écrivait-il, est à la fois partout et nulle part, mais il n’est pas là où vivent les corps (…), nous créons un monde où tous peuvent entrer, sans privilège ni préjugé dicté par la race, le pouvoir économique, la puissance militaire ou le lieu de naissance. Nous créons un monde où chacun, où qu’il se trouve, peut exprimer ses idées, aussi singulières qu’elles puissent être, sans craindre d’être réduit au silence ou à une norme. Vos notions juridiques de propriété, d’expression, d’identité, de mouvement et de contexte ne s’appliquent pas à nous. Elles se fondent sur la matière. Ici, il n’y a pas de matière. (…) Dans notre monde, tous les sentiments, toutes les expressions de l’humanité, des plus vils aux plus angéliques, font partie d’un ensemble homogène, la conversation globale informatique. Nous ne pouvons pas séparer l’air qui suffoque de l’air dans lequel battent les ailes. (…) Dans notre monde, tout ce que l’esprit humain est capable de créer peut être reproduit et diffusé à l’infini sans que cela ne coûte rien » (Barlow, 1996).

On comprend en lisant ces mots que le web a représenté pour certains la promesse d’un accès sans entrave au « bien commun informationnel », c’est-à-dire à « tout ce que l’esprit humain est capable de créer ». Nous nous intéresserons en particulier ci-après aux connaissances scientifiques, en nous demandant si elles sont véritablement devenues des biens communs intégrés, comme le suggère cette déclaration, à « la conversation globale informatique », ou si au contraire, après moins de trente ans d’existence du web, les projets futurs de Barlow ne sont plus que d’anciens rêves.

Le fait de prendre le cas des connaissances scientifiques en exemple n’est pas anodin. D’une part, parce que ces connaissances ont pour la grande majorité été produites à l’issue de projets financés sur fonds publics. Le travail éditorial qui en a présidé la publication a été financé lui aussi par des fonds publics : bien souvent en effet, les relecteurs et les membres du comité de rédaction des revues scientifiques sont des chercheurs qui n’ont pas été payés pour faire ce travail. D’autre part, parce qu’il s’agit pour les scientifiques de produire des éléments de vérité sinon la vérité elle-même, et que la vérité n’appartient à personne. L’information scientifique, autrement dit, peut être considérée comme un bien commun par essence. Enfin, il est important de noter que la question de l’accès gratuit pour tous à ces ressources est d’autant plus prégnante qu’alors même que leurs auteurs et leurs relecteurs ont été payés sur fonds publics, leurs éditeurs sont rémunérés, eux, grâce à un accès très cher payé par les institutions qui embauchent ces mêmes chercheurs, et donc, là encore, par des fonds publics (Contat et Gremillet, 2015).

I. La libération de l’information

Avec le web, trois activités se sont développées qui ont permis de défaire l’information d’un certain nombre d’entraves que sa circulation avait connues jusque-là et qui l’empêchaient, alors qu’elle était un bien public du point de vue économique, de devenir un bien commun du point de vue social : la numérisation des informations existantes, l’édition numérique (ou numérisation du processus d’édition) et la mise en réseau des processus de production et d’édition au sein de modèles collaboratifs du type Wikipédia (Mounier et Dacos, 2011). Pour l’information scientifique, ces changements donnèrent lieu au mouvement de l'« Open Access » ou de la « Science ouverte » (Suber, 2007 ; Eve, 2014). Dès le début des années 1990, certains chercheurs se mirent à arguer qu’il était du devoir des scientifiques de se saisir des outils numériques pour collaborer à grande échelle et pour diffuser librement le résultat de leur production. Le premier projet emblématique fut le projet arXiv en 1991, au tout début du web, au point qu’il est possible de dire que la science ouverte et le web sont des projets cousins voire consubstantiels, mis en place par des physiciens désireux d’échanger librement et rapidement leurs travaux (Ginsparg, 1994). Ce fut également le cas du projet NetEc pour les publications économiques, lancé en 1993 et devenu RePEc en 1997 (Krichel, 2000). Même si au début l’objectif de ces projets était la rapidité de la circulation plutôt que la gratuité (Magis et Granjon, 2016), on a vite vu apparaître l’argument selon lequel il n’y avait aucune raison pour que les contenus scientifiques ne soient pas gratuits, dès lors que les technologies numériques permettaient aux chercheurs de se défaire des barrières économiques que les éditeurs avaient dressées entre « les pauvres » (i.e. le grand public et les scientifiques dont les institutions n’avaient pas les moyens de payer un abonnement à telle ou telle revue) et « le savoir ». C’est ainsi qu’« au tournant des années 2000, des chercheurs viennent prendre part à ce débat, montrant ainsi, par exemple, que la hausse des prix des abonnements aux revues payantes (Toll Access) ne se justifie ni quant à la variation de qualité des papiers dans le temps (Kirillidou, 1999) ni quant à une différence de qualité entre les revues payantes et les revues libres (Bergstrom, 2001). Ce mouvement [a rendu] de plus en plus visible, au cours de la décennie 2000, le contrôle absolu sur la publication académique et les profits très importants des grandes majors internationales dominant un marché très concentré » (ibid.). « Peu à peu, les instances nationales et internationales se saisissent du problème et prennent position : l’UNESCO en 1999, les Nations Unies en 2000, l’OCDE en 2004 ; voire l’Académie française des sciences en 2001 » (Farchy et Froissart, 2010, p. 141).

Le 14 février 2002, fut lancée l’initiative de Budapest prônant l’utilisation du web pour que les chercheurs puissent autoarchiver leurs travaux sur le web, et pour que puissent être développées des revues numériques gratuites aussi sérieuses du point de vue scientifique que les revues papier1. Il y eut également le Bethesda Statement on Open Access Publishing (2003) ou la Déclaration de Berlin sur le libre accès à la connaissance (2003) (Magis et Granjon, 2016). Ce mouvement de « libération » des revues scientifiques consistait « à rompre les liens avec certains éditeurs, à recréer des revues, ainsi que différents boycotts d’éditeurs, en tant qu’auteur, membre de comité de rédaction ou reviewer, le plus célèbre d’entre eux étant celui visant Elsevier dans le cadre de la pétition "The cost of knowledge" en 2012. C’est encore la création de formats inédits, purement électroniques, de nouvelles formes d’évaluation par les pairs, celle-ci se déroulant non plus avant, mais après la diffusion, comme dans le cas du portail Episciences. C’est enfin la promotion de nouvelles formes de propriété intellectuelle, que ce soit par la diffusion de contrats types plus favorables aux auteurs ou par de réelles inventions, au premier rang desquelles les licences Creative Commons » (Contat et Torny, 2015, p. 64-65). Les chercheurs partisans de la science ouverte y voient la possibilité de s’affranchir « des intérêts économiques en jeu dans la publication scientifique en se réappropriant les canaux de la diffusion scientifique et en s’émancipant des grands groupes internationaux de presse et d’édition » (Jaffrin et Parisot, 2014). Les motivations des institutions publiques et des bailleurs de fonds reposent quant à elle « avant tout sur la recherche de l’efficience de l’investissement public et de l’innovation » (ibid.). « Pour d’autres encore, le libre accès vise essentiellement à réparer une iniquité fondamentale et doit s’entendre d’abord comme la revendication d’une égalité d’accès de tous à tous les résultats de la recherche, que l’on soit chercheur ou simple citoyen, « amateur éclairé » ou « lecteur inattendu », riche ou pauvre, du centre ou de la périphérie, du Nord ou du Sud, etc. Ce faisant, chacun prétend se placer sous l’intérêt général ou, en l’occurrence, le progrès scientifique, seul bien commun unanime dans la discussion » (ibid.).

Le combat pour la science ouverte a continué depuis lors, même au sein de ses partisans qui ne sont pas toujours d’accord sur les modalités pratiques de sa mise en place (Chatron, 2016), avec des moments marquant en France, comme par exemple la pétition lancée à l’initiative de chercheurs renommés en 2016, adressée au Secrétaire d’État chargé de l’Enseignement supérieur et de la Recherche Thierry Mandon, estimant que « les résultats de la recherche scientifique constituent un bien commun qui appartient à tous et qui doit circuler le plus largement possible » et exhortant les chercheurs à utiliser les plateformes sur le web comme HAL et EDP Open (science-technique-médical) ou OpenEdition (sciences humaines et sociales).2 Il y eut également l’appel de Jussieu le 10 octobre 2017 selon lequel « Priorité doit être donnée aux modèles économiques de publication qui n’impliquent le paiement ni par les auteurs pour publier ni par les lecteurs pour accéder aux textes ». Il est profondément lié au web également puisqu’il a été élaboré par un collectif français représentatif des chercheurs et des professionnels de l’édition scientifique regroupés notamment au sein des segments « open access » et « édition scientifique publique » de la BSN (Bibliothèque scientifique numérique).

L’article 30 de la loi « République numérique », entrée en vigueur le 8 octobre 2016, prévoit que :

Lorsqu’un écrit scientifique issu d’une activité de recherche financée au moins pour moitié par des dotations de l’État, des collectivités territoriales ou des établissements publics, par des subventions d’agences de financement nationales ou par des fonds de l’Union européenne est publié dans un périodique paraissant au moins une fois par an, son auteur dispose, même après avoir accordé des droits exclusifs à un éditeur, du droit de mettre à disposition gratuitement dans un format ouvert, par voie numérique, sous réserve de l’accord des éventuels coauteurs, la version finale de son manuscrit acceptée pour publication, dès lors que l’éditeur met lui-même celle-ci gratuitement à disposition par voie numérique ou, à défaut, à l’expiration d’un délai courant à compter de la date de la première publication. Ce délai est au maximum de six mois pour une publication dans le domaine des sciences, de la technique et de la médecine et de douze mois dans celui des sciences humaines et sociales.

Mais si ces des lettres ouvertes et des pétitions continuent d’être signées même après la loi « République numérique », c’est bien que le web n’a pas tenu toutes les promesses qu’y avaient vues certains quant à l’élévation de l’information en général et de l’information scientifique en particulier au rang de bien commun. Il existe encore des barrières, notamment économiques. Pour un certain nombre de grands acteurs, réalisant des profits colossaux grâce à la publication scientifique, il n’était pas question de laisser le savoir devenir un bien (tout à fait) commun.

II. Les octrois, ou l’exclusion par les prix

Sur le web, les revues ont continué à être payantes, la différence majeure étant que comme dans bien d’autres pans de l’économie de l’information, ce n’était plus la propriété du contenant que l’on payait, mais l’accès au contenu (Rifkin, 2001). En parallèle des initiatives de mise à disposition gratuite et d’autoarchivage d’articles libres de droit, on a vu se mettre en place des portails comme JSTOR ou Cairn.info de mise à disposition payante des contenus, et des stratégies de « bouquets » héritées des modèles économiques des revues imprimées, qui bien souvent, et contre-intuitivement, profitent aux ayants droit davantage qu’aux consommateurs (Sonnac, Gabszewicz, 2013). Toutefois l’argument de la Science ouverte menaçait ces modèles, au point d’obliger les éditeurs historiques à trouver des parades. C’est ainsi qu’on a vu certains des ayants droit vanter les mérites de la Science ouverte, et prétendre qu’en effet le savoir scientifique devait être un bien commun, tout en proposant aux auteurs ou à leurs institutions de rattachement de couvrir eux-mêmes les frais de publication en payant pour des montants qui peuvent atteindre cinq mille dollars par article dans les revues les plus prestigieuses. C’est ce qu’on appelle le modèle « auteur-payeur ». Certains éditeurs ont même mis en place un modèle hybride entre les modèles lecteur-payeur et auteur-payeur, en « proposant aux auteurs de rendre leur texte accessible librement contre une somme de plusieurs milliers d’euros tout en conservant la nécessité de l’abonnement pour accéder aux articles non "financés" par cette voie » (Contat et Torny, 2015, p. 66).

Ainsi non seulement il n’y a pas eu gratuité, mais en plus, aux États-Unis par exemple, alors même qu’Internet puis le web diminuaient les coûts fixes des éditeurs scientifiques, les dépenses des bibliothèques pour l’abonnement aux périodiques scientifiques ont augmenté de près de 400 % entre 1986 et 2011 (Magis et Granjon, 2016). D’autres exemples ont de quoi donner froid dans le dos aux partisans de la Science ouverte et à ceux qui ont rêvé à l’époque de la « déclaration d’indépendance du cyberespace » que le savoir deviendrait sous peu un bien commun. Par exemple, le budget des acquisitions de l’Université de Californie se répartissait en 1980 de la façon suivante : 65 % pour les livres et 35 % pour les revues. En 2003, c’était 20 % pour les livres et 80 % pour les revues (Waters, 2008 cit. in Farchy et Froissart, 2010, p. 144). En 2015, les six premiers éditeurs scientifiques mondiaux ont réalisé un chiffre d’affaires cumulé de 7,5 milliards d’euros avec un taux de marge opérationnelle de 36 %, comparable à la marge opérationnelle de l’industrie du luxe3.

Finalement, le numérique a certainement favorisé « une prise de conscience » (Chartron, 2007), mais n’a pas véritablement fait tomber les barrières. Il a ouvert un répertoire d’actions qui auraient pu permettre de les faire tomber. Et qui a permis de créer des revues comme par exemple les nombreuses revues (plus de 400) de Revues.org, une plateforme financée sur fonds publics. Mais certaines barrières au contraire ont été consolidées, d’autres réinventées. Nous allons expliquer ci-après que le numérique a aussi été l’occasion d’inventer de nouvelles tactiques plus ou moins frauduleuses visant à contourner ou à enjamber ces barrières pour faire quand même, malgré tout, de la production scientifique un bien commun.

III. La forêt de Sherwood

Les barrières économiques ont été contournées par des chercheurs qui souhaitaient mettre à disposition du plus grand nombre leurs propres articles, ou bien par des « pirates » qui, sans demander leur avis ni aux chercheurs ni aux éditeurs, idéalistes, décidèrent d’utiliser le web pour rendre plus public le savoir, plutôt que de rendre plus efficace les stratégies commerciales des éditeurs.

La mise à disposition par les chercheurs de leurs propres travaux se fait soit par courriel sur demande, soit sur leurs pages web personnelles ou institutionnelles, soit sur des sites d’autoarchivage comme arXiv, HAL ou les plateformes développées localement comme à Toulouse OATAO et « Toulouse 1 Capitole Publications », soit, enfin, par des réseaux sociaux de chercheurs tels que Researchgate, Academia ou Mendeley. Le problème de ces derniers, massivement utilisés par les chercheurs du monde entier (Van Noorden, 2014) et dont les modèles économiques reposent comme ceux des éditeurs sur le « travail gratuit » des chercheurs (Peters, 2013), est que le chercheur qui, même s’il est l’auteur de l’article qu’il partage, n’en est pas l’ayant-droit, donne au réseau sur lequel il charge son article, la pleine propriété du contenu mis en ligne. Academia.edu prévient les chercheurs qu’en chargeant des articles ils donnent à la plateforme « une licence mondiale, irrévocable, perpétuelle, non exclusive, transférable et sans « royalties » avec le droit de donner licence, utiliser, voir, copier, adapter, modifier, distribuer, autoriser, vendre, transférer, diffuser publiquement, utiliser à des fins publicitaires, transmettre » (Benech, 2014). Ainsi, même s’il y a publication et publicisation de la production scientifique, celle-ci ne devient pas pour autant un bien commun. Elle n’en a que l’apparence. En fait, au nom de la libre circulation des travaux scientifiques, les réseaux sociaux de chercheurs s’approprient le savoir qu’ils ont produit. Ce n’est pas pour rien que Elsevier, tout en menaçant Academia.edu de poursuites en 2013, avait racheté Mendeley quelques mois plus tôt, provoquant un tollé, de nombreux utilisateurs considérant que c’était comme si dans la Guerre des Étoiles « l’Empire avait acquis l’alliance rebelle » (Ingram, 2013 ; Dobbs, 2013). Une ambigüité est entretenue entre ces réseaux sociaux et les plateformes d’autoarchivage légales (Bester, 2014). Les éditeurs attaquent massivement ces réseaux sociaux, notamment ResearchGate où le nombre de textes intégraux s’élevait en 2015 à 19 millions, dont 40 % de contenus illégaux (Jamali, 2017). Ces attaques menées notamment par la « Coalition for responsible sharing », rassemblant l’American chemical society, Brill, Elsevier, Wiley et Wolters Kluwer, ont eu pour résultat la dépublication par ResearchGate en novembre 2017 de 1,7 million d’articles, ce qui représenterait 93 % du contenu appartenant aux membres de la coalition (Bouchard, 2017). Le 23 octobre 2017, ResearchGate avait également changé ses règles de manière à davantage responsabiliser les utilisateurs de la plateforme, de sorte que ce soit eux qui soient visés par les prochaines attaques des éditeurs (ibid).

Il existe également des plateformes illégales où ce ne sont pas les chercheurs qui mettent en ligne les articles, mais la plateforme elle-même, sans demander leur avis ni aux chercheurs ni aux éditeurs, ouvertement illégale et militante pour le libre accès à la production scientifique. C’est le cas du célèbre Sci-hub, poursuivi et battu devant les tribunaux américains par Elsevier en 2015 et l’American Chemical Society en 2017 pour non-respect du droit d’auteur et contrefaçon de marque, mais toujours vivant. La plateforme Sci-Hub, hébergée en Russie (et sans doute protégée par Poutine) et créée par la kazakhe en piratant les comptes d’accès de grandes bibliothèques universitaires, hébergeait en 2017 plus de 62 millions d’articles (Greshake, 2017). Elle est soutenue par les idéalistes défenseurs d’un savoir érigé au rang de bien commun, notamment la Electronic Frontier Foundation (EFF) selon qui « en principe, toutes les personnes du monde devraient avoir accès à la même connaissance » (Harmon, 2015). Et l’EFF de rappeler que selon l’article 27 de la Déclaration universelle des droits de l’homme de 1948 « toute personne a le droit (…) de participer au progrès scientifique et aux bienfaits qui en résultent ». Une étude publiée dans Science en 2016 a montré que Sci-Hub était utilisé sur tous les continents sauf l’Antarctique et qu’il y avait en moyenne 200 000 téléchargements par jour provenant de plus de 3 millions d’utilisateurs (Bohannon, 2016). Dans cet article, l’auteur donne l’exemple d’un chercheur iranien qui ne pourrait pas travailler, faute de moyens, si Sci‑Hub n’existait pas. C’est une manière de pointer le problème de l’exclusion par les prix des pays où l’argent – toutes choses étant égales par ailleurs, ceteris paribus – est autrement plus cher qu’aux États-Unis et en Europe, où sont établis les principaux éditeurs scientifiques, lesquels pratiquent des tarifs absolument prohibitifs pour de nombreuses régions du monde.

Alexandra Elbakyan est une figure emblématique de cette lutte visant à ce que le web puisse être utilisé pour que la production scientifique devienne un bien commun, y compris si pour cela il est nécessaire de violer systématiquement le droit d’auteur. Elle a succédé en cela à Aaron Swartz poursuivi comme elle en 2011 au nom du the « U.S. Computer Fraud and Abuse Act » pour piratage de contenus scientifiques, et qui, alors qu’il risquait jusqu’à trente-cinq ans de prison, s’est donné la mort en 2013 à l’âge de 26 ans. Aaron Swartz avait été accusé d’avoir téléchargé 4,8 millions d’articles en passant par les conduits d’aération pour accéder à la salle des serveurs du Massachusetts Institute of Technology, et accéder depuis là à la plateforme JSTOR. Pour Aaron Swartz partager ces informations, même illégalement, constituait un « impératif moral » (Bonneau, 2015).

IV. Les jardins murs, ou l’exclusion par les normes

Il est en train de se jouer en ce moment un autre type d’exclusion, moins évident à appréhender par les chercheurs (et a fortiori par le grand public), ce qui explique probablement d’une part pourquoi on en parle très peu et d’autre part pourquoi les éditeurs de revues scientifiques y placent leurs espérances, souhaitant grâce à cette forme d’exclusion lutter depuis « les coulisses » contre le piratage qui amoindrit leurs revenus et empêcher le web de permettre à la production scientifique d’être accessible à tous. Ce type d’exclusion passe par les normes techniques.

Les éditeurs de contenus textuels, et en particulier de revues scientifiques, ont réussi à créer une norme technique appelée EPUB, publiée en 2007 par le International Digital Publishing Forum (IDPF). Cette norme a également fait l’objet en 2014 d’une spécification technique par l’Organisation internationale de normalisation (ISO/IEC TS 30135). L’un de ces effets possibles et de rendre possible la création de fichiers dans un format qui permet de mieux contrôler leur circulation grâce à la compatibilité entre EPUB et les logiciels de Digital Right Management (DRM). C’est ce qui empêche par exemple les propriétaires de liseuses numériques d’échanger les fichiers qu’ils ont chargé sur leurs appareils. Jusqu’en 2017, cela ne concernait que les liseuses. Cependant, en 2017, voyant que les producteurs de cinéma avaient réussi à faire normaliser un système de gestion des DRM appelé Encrypted Media Extensions, au sein du world wide web Consortium (W3C), où sont normalisées les principaux standards du web (Sire, 2017), les membres de l’IDPF ont décidé de fusionner leur structure avec le W3C, et d’écrire de la norme EPUB reposant sur le HTML5 qui est le standard ouvert de description des données du web. Cela semble loin de l’usager, et très technique, pourtant ce qui se joue en ce moment au sein du W3C dans le groupe intitulé à raison « Publishing Business », au sein duquel les éditeurs scientifiques sont évidemment représentés, en particulier Wiley et Sage, n’est rien de moins que le contrôle grâce à des DRM du type LCP ou DRM Adobe, de la circulation sur le web de l’information textuelle en général et de l’information scientifique en particulier.

Conclusion

Nous avons essayé de décrire dans cet article pourquoi les rêveurs des années 1990 qui à l’instar de John Barlow voyaient dans le web l’occasion de créer des biens communs informationnels, c’est-à-dire « des biens publics parfaits au sens économique, contrairement aux biens communs physiques qui gardent toujours une part de rivalité et d’excluabilité » (Aigrain, 2005, p. 266), ont de quoi avoir des regrets en 2018. En effet, même si la non-rivalité est intacte, il existe plusieurs manières d’exclure les internautes de la consommation de l’information. Ici nous avons parlé de l’exclusion par les prix, ainsi que d’une forme moins commentée d’exclusion qui repose sur les normes techniques. Ces deux formes d’exclusion nous ont intéressés en particulier dans la mesure où elles concernent toutes deux, entre autres, l’information scientifique, c’est-à-dire la connaissance, le savoir, qui aux yeux de beaucoup est un bien commun par essence, mais qui fait l’objet d’un marché extrêmement rentable pour quelques éditeurs américains et européens qui non seulement n’ont pas ouvert les portes grâce au web, mais qui surtout ont augmenté leurs marges depuis que le web existe, alors même que leurs coûts de production diminuaient, et, ce, dans des proportions considérables.

D’autres modes d’exclusion existent, d’autres barrières. Les barrières physiques ou « fracture du premier degré » (Ben Youssef, 2004) : un certain nombre d’individus vivant dans des pays pauvres ou des régions isolées n’ont pas du tout accès au réseau, ou alors y ont accès, mais avec un débit très lent. Les barrières liées aux capacités pour les handicapés moteurs et mentaux, les mal voyants et les malentendants. Les barrières liées aux compétences : un certain nombre d’individus même s’ils ont accès au réseau n’ont pas le savoir-faire qui leur permet de l’utiliser correctement (Brotcorne et Valenduc, 2009). Les barrières algorithmiques : certains algorithmes de personnalisation utilisés par les moteurs de recherche et par les réseaux sociaux pourraient éventuellement rendre plus difficile l’accès à certaines informations pour des individus quand le système aura « décrété » que ces informations ne les intéresseront probablement pas (Bozdag, 2013).

Quand on considère toutes ces fractures numériques comme autant de modes d’exclusion, il semblerait d’une part que sur le web rien n’a jamais été tout à fait commun, et d’autre part que même si certaines barrières se résorbent, comme celles liées à l’extension et la densification du réseau, d’autre se renforcent, comme celles liées aux prix, et d’autres encore se créent, grâce à de nouvelles normes techniques ou à de nouveaux dispositifs physiques permettant de mieux contrôler, et restreindre donc, l’accès à l’information. La déclaration d’indépendance du cyberespace n’aura été rien d’autre qu’un doux rêve, et un jour viendra peut-être où on dira la même chose de la science ouverte, à moins que les États, les chercheurs et les éditeurs ne décident d’utiliser le web ensemble pour ouvrir les barrières, et non les uns contre les autres de manière à mieux les fermer.

1 < http://openaccess.inist.fr/?Initiative-de-Budapest-pour-l >.

2 < https://www.change.org/p/thierry-mandon-education-gouv-fr-pour-une-science-ouverte-%C3%A0-tous >.

3 EPRIST, 2016, < https://www.eprist.fr/wp-content/uploads/2016/03/I-IST_16_R%C3%A9sultatsFinanciers2015EditionScientifique.pdf >.

Bibliographie

AIGRAIN P. (2005), Cause commune, Publie.net, coll. « Washing Machine », 286 p.

BOHANNON J. (2016), « Who’s downloading pirated papers? Everyone », Science, < https://www.sciencemag.org/news/2016/04/whos-downloading-pirated-papers-everyone >.

BARLOW J. (2000) « Déclaration d’indépendance du cyberespace » in Libres enfants du savoir numérique : Une anthologie du “Libre” (p. 47-54), Paris, Éditions de l’Éclat.

BENECH C. (2014), « Protection et propriété des données sur Academia.edu et ResearchGate », ArchéOrient-Le Blog (Hypotheses.org).

BEN YOUSSEF A. (2004) « Les quatre dimensions de la fracture numérique », Réseaux, n° 127-128, p. 181 ‑209.

BERGSTROM T. C. (2001), « Free Labor for Costly Journals? », Journal of Economic Perspectives, vol. 15 n° 4, 2001, p. 183-198.

BESTER E. (2014) « L’offre de réseaux socio numériques pour les scientifiques : services et stratégies d’acteurs », Les Enjeux de l’information et de la communication, vol. 15, n° 1, p. 17-33.

BONNEAU C. (2015), « Pursuing the legacy of Aaron Swartz, one tweet at a time. A screenshot-driven essay », M@n@gement, vol. 18, n° 5, p. 363-369.

BOUCHARD A. (2017), « "Nous n’avons pas d’autre choix" : les éditeurs, ResearchGate et les guerres du copyright », Réseau des Urfist, < https://urfistinfo.hypotheses.org/3126#note3 >.

BROTCORNE P., VALENDUC, G. (2009). Les compétences numériques et les inégalités dans les usages d’Internet : Comment réduire ces inégalités ?. Les Cahiers du numérique, vol. 5, n° 1, p. 45-68.

CHARTRON G. (2016), « Stratégie, politique et reformulation de l’open access », Revue française des sciences de l’information et de la communication, n° 8.

CHARTRON G. (2007), « Évolution de l’édition scientifique, 15 ans après », EUTIC 2007.

CONTAT O., GREMILLET, A.-S. (2015), « Publier : à quel prix ? Étude sur la structuration des coûts de publication pour les revues françaises en SHS », Revue française des sciences de l’information et de la communication, n° 7.

CONTAT O. & TORNY D. (2015), « Les revues en sciences humaines et sociales à l’heure des communs », Revue d’histoire moderne & contemporaine, n° 5, p. 62-70.

DOBBS D. (2013), « When the Rebel Alliance Sells Out », The New Yorker, < https://www.newyorker.com/tech/annals-of-technology/when-the-rebel-alliance-sells-out >.

EVE M. P. (2014), Open Access and the Humanities. Contexts, Controversies and the Future, Cambridge, Cambridge University Press.

FARCHY J., FROISSART P. (2010), « Le marché de l’édition scientifique entre accès “propriétaire” et accès “libre” », Hermès, n° 57, p. 137-150.

GEOFFARD P.-Y., « Des éditeurs scientifiques trop gourmands », Libération, 11 décembre 2017.

GINSPARG P. (1994), « First Steps Towars Electronic Research Communication », Computers in Physics, vol. 8 n° 4, 1994, p. 390-396.

GRESHAKE B. (2017), « Looking into Pandora’s Box: The Content of Sci-Hub and its Usage », F1000Research, vol. 6,‎ 21 avril 2017.

HARMON E. (2015), « What If Elsevier and Researchers Quit Playing Hide-and-Seek? », Electronic Frontier Foundation.

INGRAM M. (2013), « The Empire acquires the rebel alliance: Mendeley users revolt against Elsevier takeover », GIGAOM, < https://gigaom.com/2013/04/09/the-empire-acquires-the-rebel-alliance-mendeley-users-revolt-against-elsevier-takeover/ >.

JAFFRIN I., PARISOT T. (2014), « La place des revues dans la communication scientifique en régime de libre accès », Revue européenne des sciences sociales, 52-1, 2014 [En ligne] DOI : https://doi.org/10.4000/ress.2637

JAMALI H. R. (2017), « Copyright compliance and infringement in ResearchGate full-text journal articles », Scientometrics, vol. 112, n° 1, p. 241-254.

KRICHEL T. (2000), « Working towards an Open Library for Economics: the RePEc Project », in PEAK. The Economics and Usage of Digital Library Collections, Ann Arbor, MI, p. 23–24

MAGIS C., GRANJON F. (2016), « Numérique et libération de la production scientifique », Variations, n° 19.

MIEGE B. (2017), Les industries culturelles et créatives face à l’ordre de l’information et de la communication, Grenoble, Presses universitaires de Grenoble, 191 p.

MOUNIER P., DACOS M. (2011), « Édition électronique », Communications, vol. 88, n° 1, p. 47-55.

PETERS H. (2013), Quick Glance at Business Models of Academic Soci al Networking Services, Hybrid Publishing Lab Notepad.

RIFKIN J. (2001), The Age of Access. The New Culture of Hypercapitalism, Londres, Penguin Random house, 320 p.

RUSSEL A. L. (2011), « Constructing Legitimacy : The W3C’s Patent Policy », in Denardis L. (dir.), Opening Standards. The Global Politics of Interoperability, Cambridge, MIT Press, p. 159-176.

SAMUELSON P. (1964), « Public goods and subscription TV : Correction of the record », Journal of Law and Economics, vol. 7, p. 81-83.

SONNAC N. (2013), « L’écosystème des médias », Communication, vol. 32, n° 2.

SONNAC N., GABSZEWICZ J. (2013), L’industrie des médias à l’ère du numérique, Paris, La Découverte, coll. « Repères », 126 p.

SUBER P. (2007), « Creating an intellectual commons through open access », in Hess C., Ostrom E. (dir.), Understanding Knowledge as a Commons : from Theory to Practice, Cambridge, MIT Press, p. 171-208,

VAN NOORDEN R. (2014), « Online collaboration: Scientists and the social network », Nature, vol. 512, p. 126-129.

WATERS L. (2008), L’Éclipse du savoir, Paris, Alli.

Notes

1 < http://openaccess.inist.fr/?Initiative-de-Budapest-pour-l >.

2 < https://www.change.org/p/thierry-mandon-education-gouv-fr-pour-une-science-ouverte-%C3%A0-tous >.

3 EPRIST, 2016, < https://www.eprist.fr/wp-content/uploads/2016/03/I-IST_16_R%C3%A9sultatsFinanciers2015EditionScientifique.pdf >.

Citer cet article

Référence électronique

Guillaume SIRE, « Qu’est-ce qui est commun sur le web ? », La Revue du Centre Michel de L'Hospital [En ligne], 19 | 2019, mis en ligne le 27 septembre 2021, consulté le 20 avril 2024. URL : http://revues-msh.uca.fr/revue-cmh/index.php?id=196

Auteur

Guillaume SIRE

Maître de conférences en sciences de l’information et de la communication, Université Toulouse 1 Capitole, Membre de l’Institut du Droit de l’Espace, des Territoires, de la Culture et de la Communication, co-responsable de l’unité régionale de formation à l’information scientifique et technique d’Occitanie

Droits d'auteur

Attribution 4.0 International (CC BY 4.0)