2013
oct.
5

Des NTIC aux NTAD (nouvelles technologies de l’attention et de la distraction)

De 1996, la déclaration d’indépendance du web à 2012 où la plus grande partie du cyberespace est un monde fermé, propriété, contrôlé par le marketing, régi par un carcan de normes arbitraires, de lois liberticides et de technologies « privatives ...
Comprendre que l’impossibilité de maîtriser un "savoir publier", sera demain un obstacle et une inégalité aussi clivante que l’est aujourd’hui celle de la non-maîtrise de la lecture et de l’écriture, un nouvel analphabétisme numérique hélas déjà observable.

Congrès de la FADBEN à Paris 2012

Intervention de : Olivier Ertzscheid
Maître de Conférences en Sciences de l’information et de la communication.
IUT de la Roche sur Yon. Département Infocom.

Dans la table ronde : L’organisation des connaissances dans le contexte du Web. Mutations du document, traitement documentaire et redocumentarisation, indexation de l’information : quels enjeux pour la culture informationnelle ?

Nous sommes en 1996. Le web est âgé d’à peine 7 ans. Le premier outil de navigation grand public, Mosaïc, a 3 ans. John Perry Barlow rédige et publie la "déclaration d’indépendance du cyberespace", un texte qui reste emblématique de l’idéologie des pionniers et qui fut structurant pour toute une génération de primo-internautes. On peut notamment y lire ceci :

« Nous sommes en train de créer un monde ouvert à tous, sans privilège ni préjugé qui dépende de la race, du pouvoir économique, de la puissance militaire ou du rang de naissance. Nous sommes en train de créer un monde où chacun, où qu’il soit, peut exprimer ses convictions, aussi singulières qu’elles puissent être, sans craindre d’être réduit au silence ou contraint de se conformer à une norme. Vos notions juridiques de propriété, d’expression, d’identité, de mouvement et de circonstance ne s’appliquent pas à nous. Elles sont fondées sur la matière, et il n’y a pas de matière ici. »

Nous sommes en 2012. 16 ans plus tard, que reste-t-il de cette déclaration d’indépendance ? Un constat d’échec. Aujourd’hui, la plus grande partie du cyberespace est un monde fermé, propriété, contrôlé par le marketing, régi par un carcan de normes arbitraires, de lois liberticides et de technologies « privatives ». Un monde hyperterritorialisé sous le contrôle de quelques multinationales.

Éléments de contexte : le fin d’une idéologie


"Sans être contraint de se confronter à une norme ?"
Les normes sont aujourd’hui omniprésentes dans l’écosystème des sites sur lesquels la planète connectée passe l’essentiel de son temps. Nous faisons face en permanence à des stratégies normatives qui n’émanent ni du législateur ni d’un imaginaire collectif (à l’exception notable de la pédophilie et, dans certains pays, de la vente d’armes.) mais d’un cénacle des décideurs ou d’actionnaires qui définissent les conditions d’expression de l’humanité connectée sur leurs produits et leurs services. Une situation d’autant plus problématique que ces normes oscillent en permanence entre l’arbitraire et le régime d’exception. Pour ne prendre que le cas de Facebook, les usages de 800 millions d’individus connectés doivent satisfaire à l’idée que Facebook se fait de la morale, de ce qui est publiable et de ce qui ne l’est pas. "L’origine du monde", célèbre tableau de Courbet est considéré comme de la pornographie, et les internautes qui ont choisi d’utiliser ce tableau sur leur mur ou comme photo de profil ont vu leur compte fermé. Pour le même motif de pornographie, et toujours sur Facebook, nombre de campagnes publicitaires pour la prévention du cancer du sein ont également été censurées (http://archives-lepost.huffingtonpost.fr/article/2011/11/03/2629481_le-cancer-du-sein-une-nouvelle-fois-censure-sur-facebook.html). De la même manière que l’on ne compte plus les polémiques ayant trait à l’existence de groupes sur l’allaitement : une photo de femme allaitant son enfant n’est pas considérée comme pornographique si l’on voit son sein, elle le devient si l’on aperçoit son téton (http://www.lexpress.fr/actualite/hi...). Sur ce même sujet, les polémiques concernant la firme Apple sont au moins aussi nombreuses, Steve Jobs ayant explicitement déclaré qu’il interdisait toute forme de pornographie sur l’Apple Store (http://www.pcinpact.com/news/56467-...). Mais là encore, la notion est à géométrie variable comme en atteste l’une des plus médiatiques affaires concernant une application de caricatures politiques jugée obscène et donc retirée de l’Apple Store, avant que l’on ne s’aperçoive que l’auteur des caricatures étant le dernier titulaire du prix Pulitzer (http://www.01net.com/editorial/5154... ), et que son application ne soit donc ... réintégrée.

"Vos notions juridiques d’identité ne s’appliquent pas". Rien n’est moins vrai à l’heure où l’ensemble des acteurs de l’économie du web s’orientent délibérément vers des stratégies interdisant l’anonymat ou même toute forme de pseudonymat. Nous sommes sommés, pour pouvoir utiliser leurs services, de nous y enregistrer sous notre vrai nom et de fournir la preuve de notre identité (http://www.numerama.com/magazine/19... et http://www.lepoint.fr/high-tech-int... ). Une fois encore, selon que vous serez puissant ou misérable il est possible, à titre exceptionnel de se soustraire à cette norme imposée. Le célèbre écrivain Salman Rushdie réussit ainsi à obtenir l’autorisation de maintien de son compte Facebook sous son nom de plume (http://leplus.nouvelobs.com/contrib... ).

"Vos notions juridiques de propriété ne s’appliquent pas". Le web et avec lui toute l’économie de l’internet sont aujourd’hui sur un basculement radical de leur modèle : en entrant dans l’âge adulte, en assumant leur statut de "mass media" ils héritent également de l’arsenal législatif contraint qui encadre l’économie "réelle" sous la pression manifeste des lobbys et autres groupes d’influence. Ainsi en France, les lois DADVSI puis HADOPI fonctionnent essentiellement comme des mécanismes de maintien des rentes de situation des quelques GateKeepers des industries culturelles. Plus globalement, les lois ou projets de lois ACTA, SOPA et PIPA (http://www.internetactu.net/2012/01... ) remettent en lumière un débat déjà ancien sur la nécessité de maintenir une neutralité du réseau. Non que l’on puisse faire l’économie d’un cadrage juridique et législatif des pratiques connectées à l’heure où elles sont à ce point massifiées, mais nous voulons ici souligner l’inadaptation patente de la territorialité du droit face à la déterritorialisation des accès. Dans le même temps, la durée du droit d’auteur ne cesse d’augmenter (http://www.numerama.com/magazine/21... ), et la part du domaine public ne cesse de se réduire à tel point que des œuvres qui y étaient entrées en sont parfois ressorties manu militari (http://www.numerama.com/magazine/21374-aux-usa-des-oeuvres-sortent-du-domaine-public.html ).

"On peut s’exprimer sans crainte d’être réduit au silence". La formidable chambre d’écho que Facebook ou Twitter constituèrent à l’occasion du soulèvement des peuples du "printemps arabe" ne doit pas faire oublier la systématisation de politiques qui, pour ces mêmes sites, vont du filtrage à la censure technique (http://www.google.com/hostednews/af... ) en passant par la surveillance idéologique et parfois même jusqu’à la délation pure et simple, comme dans l’affaire de Yahoo ! livrant au gouvernement chinois les noms de dissidents hostiles au régime. Le site Opennet.net constitue sur le sujet une mine précieuse de renseignements sur l’état de l’exercice des libertés démocratiques sur le réseau.
Dans l’un des ouvrages rédigés par le groupe de chercheurs et d’universitaires à l’origine de ce projet on trouve un historique passionnant de la mise en place de ces politiques de contrôle et de censure qui indique que nous sommes aujourd’hui entrés dans la "4e phase de contrôle du cyberespace".
Le premier temps fut celui des années 1960 à 2000, baptisé "Open Commons" et qui correspond au mouvement initial de démocratisation de l’internet et du web, au discours irénique qui le sous-tendait, et à l’époque où les états prenaient pour quantité négligeable ce qui se passait sur le réseau des réseaux.
Les années 2000 à 2005 sont baptisées "Access Denied" puisque l’on vit certains états (Chine, Arabie Saoudite) commencer à bloquer l’accès à certains sites.
Les années 2005 à 2010 furent celle de "l’Access Controlled" avec un contrôle plus fin, à la fois des accès et des personnes.
La 4e phase de contrôle du cyberespace dans laquelle nous sommes aujourd’hui entrés est marquée par un corpus doctrinaire des technologies et des politiques de contrôle de plus en plus partagé, y compris par les tenants d’un internet « ouvert ». Il s’agit d’une phase de légitimation globale du contrôle, à la fois par les gouvernements et les entreprises.

"Il n’y a pas de matière ici". Là encore, le discours irénique des pionniers doit faire face à une réalité qui fait du web et d’internet une industrie lourde, aussi bien sur le terrain de la transmission (réseaux de réseaux filaires, satellitaires) que sur celui du stockage (datacenters, Cloud Computing). A titre d’exemple, on estime que la consommation électrique des DataCenters représente 2% de l’ensemble de celle de la planète (http://www.pcworld.fr/2011/08/02/bu... ).

"Un monde sans privilège ni préjugé qui dépende du pouvoir économique". Nouvelle désillusion puisque, parmi d’autres, on commence aujourd’hui à voir fleurir un web assurantiel, avec le groupe Axa qui propose "la 1re assurance contre les dangers d’internet (sic)" (http://www.axa.fr/prevoyance-protec... ) proposant, par exemple de "nettoyer les données malveillantes vous concernant sur Internet" ... à ceux qui en auront les moyens financiers.

Naturellement, toutes nos pratiques documentaires connectées sont impactées par l’effondrement de ce discours idéologique, ce qui implique, avant de réfléchir aux meilleurs moyens pour les enseigner, de comprendre d’où viennent nos objets documentaires numériques.

D’où viennent nos objets documentaires numériques ?

L’internet des silos. En contrepoint d’un web ouvert, les grands groupes qui structurent aujourd’hui l’économie du net autant que nos habitus de connexion, se sont constitués en autant de biotopes fermés, propriétaires, étanches à toute forme d’extériorité. C’est le cas de Facebook, d’Apple, d’Amazon mais également de Google ou de Twitter.
Dans un texte fondateur publié en 2010, Tim Berners Lee s’est ouvertement alarmé de cette orientation vers ce qu’il appelle des "jardins fermés" ("walled gardens") en plaidant pour la nécessité de maintenir un réseau neutre et reposant sur des standards technologiques ouverts (http://www.scientificamerican.com/a...).
Les problèmes que posent ces jardins fermés sont nombreux, comme sont nombreux ceux soulevés par les immenses quantités de données ("Big Data") dont ils disposent à leur seul gré et parmi lesquels on mentionnera l’usage contraire à l’éthique qui peut en être fait ou les nouvelles fractures numériques entre ceux possédant l’accès à ces données et ceux qui en sont privés (http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1926431 ).
Dans ces jardins fermés, chaque acteur a intérêt à favoriser les résultats de son écosystème direct (http://searchengineland.com/example...) et à refuser ou brider toute forme d’externalité non-directement rentable. Ainsi, pour une recherche sur une vidéo, Google surpondérera et affichera en premier les résultats provenant de YouTube (qu’il a racheté) au détriment des résultats en provenance d’autres sites présentant pourtant la même vidéo.
De la même manière la fonctionnalité "like" ("j’aime") mise en avant par Facebook à l’intérieur de son site mais également sur une multitude de sites tiers a vocation à centraliser les informations de navigation (et les préférences des utilisateurs) pour le seul usage de Facebook, dans une logique radicalement inverse à celle du lien hypertexte (http://affordance.typepad.com/mon_w... ). Ainsi ces nouvelles ingénieries relationnelles présentes dans tous les systèmes dits "de recommandation" nous astreignent à une navigation de plus en plus fermée, de type carcérale, dans laquelle il est de plus en plus difficile et de moins en moins "naturel" de parvenir à s’extraire des sentiers les plus fréquentés, ou des zones de liberté conditionnelle qui nous sont assignées.

Politiques ou dictatures algorithmiques ? Les politiques algorithmiques de chacun de ces acteurs gouvernent désormais l’essentiel des documents, des profils et des traces en circulation sur le réseau. Or ces algorithmes sont, pour des raisons évidentes, parfaitement opaques et ne peuvent être rendus publics. Mais faute de pouvoir disposer d’alternatives efficaces, nous sommes contraints de nous soumettre à ces modes de classement, de tri, d’organisation et de hiérarchisation de l’information. Or, à l’heure actuelle, et dans la même logique d’enfermement que celle décrite précédemment, ces algorithmes donnent une part de plus en plus importante à la personnalisation, à un point tel qu’en combinant les possibilités de Google Suggest (suggestion de termes en cours de frappe) et de Google Instant Search (affichage de la page de résultats sans attendre la fin de la saisie de la requête), nous nous voyons imposer des réponses à des questions que nous n’avons pas encore posées (http://affordance.typepad.com/mon_w...). Une dérive que Marguerite Duras avait prophétisé dès 1985 lorsque dans une entrevue télévisée au cours de laquelle on lui demandait d’anticiper ce que serait l’an 2000, elle déclarait ceci (http://affordance.typepad.com/mon_w...) : "Il n’y aura plus que ça, la demande sera telle que… il n’y aura plus que des réponses, tous les textes seront des réponses en somme. Je crois que l’homme sera littéralement noyé dans l’information, dans une information constante. Sur son corps, sur son devenir corporel, sur sa santé, sur sa vie familiale, sur son salaire, sur son loisir. C’est pas loin du cauchemar."

Documentation à haute fréquence. Le "High Frequency Trading" (HFT) désigne l’action de ces algorithmes qui, sur les marchés boursiers, effectuent sans aucune intervention humaine, des opérations d’achat et de vente d’actions, et ce à une fréquence de la milliseconde. Cette pratique a souvent été signalée comme l’une des origines - ou l’un des facteurs aggravants - de la dernière crise boursière. Dans le contexte d’un internet des silos gérant d’immenses quantités de données (big data) dans des environnements fermés et propriétaires, effectuant une indexation en temps réel des informations circulant dans les dits écosystèmes et personnalisant à outrance les résultats affichés, on ne peut qu’être frappé par les similitudes existant entre le HFT décrit plus haut et ce qui relèverait d’une "documentation à haute fréquence", c’est à dire à un processus de publication de mise en mémoire et en accès de documents et d’informations qui s’effectue :

  • sur la mainmise d’une gestion des flux (documentaires et non plus boursiers) ;
  • sans aucune intervention humaine ;
  • sous la conduite exclusive d’algorithmes ;
  • dans des temporalités de l’ordre de la milliseconde ;
  • dans une opacité totale ;

Les résonances avec les travaux d’Alain Giffard sur les "lectures industrielles" et ceux d’Igor Babou (?) sur le "capitalisme linguistique" (http://fkaplan.wordpress.com/2011/0...) sont également frappantes. Lorsque l’on connaît l’impact du "trading à haute fréquence" dans la crise mondiale que nous venons de traverser, on serait pour le moins mal avisés de tenir pour quantité négligeable l’impact de cette "documentation à haute fréquence" sur nos pratiques documentaires et plus globalement sur le mécanisme même de production d’information et de connaissance dans nos sociétés connectées.
A fortiori lorsque l’on mesure que près de 50% du "trafic" (les visites sur tel ou tel site) sur le web provient non pas de "lecteurs" ou d’internautes en chair et en os, mais de programmes informatiques (http://www.journaldunet.com/ebusine...), principalement les "crawlers" (robots indexeurs) des moteurs de recherche.

Retour vers le futur.

En jetant en rapide coup d’œil dans le rétroviseur des procédures de classement et d’accès mises en place dans les régimes documentaires que constituent les outils de recherche, on s’aperçoit d’une évolution en 4 temps.

Watching. S’inspirant des premières approches classificatoires systématiques mises en place dans les bibliothèques, les annuaires de recherche abordèrent la question de la documentation comme une "vue sur le monde" (watching), faites de catégories et de sous-catégories en nombre limité, destinées à rendre compte et à organiser la diversité des informations recueillies et manuellement ajoutées aux dites catégories.

Matching. Avec l’arrivée de Google et de son algorithme Pagerank directement inspiré des travaux de Garfield sur la bibliométrie mais reposant sur un corpus à la fois hétérogène et en constante évolution, l’approche documentaire devint celle du "matching", le renvoi d’un ou plusieurs résultats correspondant (to match) à une requête donnée, la documentation étant alors perçue comme la restitution du croisement d’externalités répondant à une infinité de termes possibles.

Catching. Les évolutions que j’ai précédemment décrites instancient aujourd’hui l’activité documentaire sur le web avant tout comme une activité de captation (to catch). Captation en temps réel jouant sur l’indexation et la personnalisation des résultats, mais principalement et essentiellement, captation de l’attention, au détriment de la justesse ou de la diversité des résultats.

Trading. La dernière étape du processus reviendrait alors à faire de l’activité documentaire un pur exercice spéculatif contrôlé par des acteurs uniquement soucieux d’enrichir un portefeuille d’actions tenu par les régies publicitaires qu’ils mettent en place (Google Adwords) ou qu’ils alimentent (Facebook).

La question de la documentation de soi.
Les primo-arrivants sur le web partagent souvent le même rite initiatique : celui de la création d’un compte Facebook. Commence alors, sur Facebook et ailleurs, dès l’âge de 13 ans et parfois même avant, un processus dont l’importance nous échappe à l’instant où nous le déclenchons : celui d’une entrée en documentation de soi. Une documentation qui sera ensuite permanente, problématique parce que sont entretenus des faux-semblants d’intimité ou de "privauté" là où le web, dans sa totalité comme en chacun de ses silos, est essentiellement et intrinsèquement un espace public ou en toute dernière instance, semi-public. Aucune intimité n’y est possible. Et il nous y faut autant apprendre à dire qu’à ne pas dire ; apprendre à gérer l’oscillation permanente entre un story-telling facilité par les outils mis à notre disposition (que l’on regarde par exemple le lancement de la Timeline de Facebook), et un fact-checking qui des années plus tard peut nous remettre en face de nos inconséquences, de nos changements, de nos contradictions, de nos évolutions ; apprendre à s’exposer à la lisière de ces deux horizons dans lesquels un modèle de la linéarité de la narration de soi bascule vers une réticularité des narrations alternatives de soi ; inventer peut-être une hybridation supplémentaire, celle d’un "fact-telling" ou d’un "story-checking" permettant de réassurer et de réinvestir le mouvance de nos expressions identitaires numériques. Mais d’ores et déjà "je" est devenu un document comme les autres (http://archivesic.ccsd.cnrs.fr/sic_... ) , pris dans les mêmes flux, soumis aux mêmes logiques algorithmiques, indexable dans ses comportements, ses expressions, ses actions et même ses intentions.

Objets documentaires numériques : intégrité menacée.

On n’achète plus aujourd’hui un produit (un livre par exemple), mais on achète l’accès à un service (la consultation d’un livre sur dans un environnement ou sur un terminal spécifique). C’est le modèle de l’allocation. Cette modification sera demain au cœur de l’ensemble des modes de consommation liés aux industries culturelles. Elle rend de plus en plus délicate et problématique (et parfois même impossible) la réutilisation dans le cadre pourtant nécessaire autant que légitime qui est celui de la copie privée. Il faut y être préparé et s’interroger sur les risques encourus, en termes d’eugénisme documentaire (que l’on se souvienne de la pauvreté de la copie numérique remise par Google aux bibliothèques partenaires du programme de numérisation GoogleBooks).
Il faut également réapprendre à distinguer les logiques de la rediffusion de celles du partage. Le "partage" tel qu’il est présenté par Facebook quand vous cliquez sur une vidéo pour la faire circuler auprès de vos amis n’est qu’un faux-semblant. Le vrai partage présuppose une appropriation et une redistribution ciblée. L’essentiel de nos interactions connectées consiste davantage en une simple rediffusion qu’en un partage authentique.
Pour permettre de sortir les objets documentaires de la masse des formats propriétaires qui les gangrènent, il faut réaffirmer l’importance de l’interopérabilité et enseigner les formats qui l’autorisent.
Apprendre également à sauvegarder et à se réapproprier des données, des documents que nous stockons "dans les nuages", c’est à dire sur les serveurs des sites hôtes (FlickR pour les images, YouTube pour les vidéos, etc ...), avec une naïveté confondante qui nous fait évacuer d’un revers de manche la possibilité pourtant évidente que tout ou partie de ces sites vienne demain à disparaître, et avec eux les documents dont nous leur avons confié la garde (http://www.ecrans.fr/Le-jour-ou-You...).

Le fil rouge de l’ensemble des ces bouleversements me semble pouvoir être résumé dans une formule : nous sommes passés des NTIC (nouvelles technologies de l’information et de la communication) aux NTAD (nouvelles technologies de l’attention et de la distraction). Un passage qu’augmente et que facilite en permanence la disparition progressive du clavier comme espace de saisie autant que d’appropriation, au profit d’un web pousse-bouton, dont les innombrables "like" et autres "+1" ne sont que l’écume d’ingénieries relationnelles toujours plus fines, toujours plus insidieuses. Des ingénieries qui se présentent comme le seul recours au basculement d’une économie de la rareté à une économie de l’abondance. Mais des ingénieries qui, comme le montre Eli Pariser dans The filter bubble sont mues par des "algorithmes de personnalisation du web [qui] nous poussent à consommer une diversité d’information toujours plus réduite." et qui accompagnent inexorablement le virage du web d’un média du texte vers un média de l’image.

Alors que faire ? Et bien peut-être refaire le chemin à l’envers ! Le pédagogue désignait à l’époque l’esclave qui accompagnait l’enfant sur le chemin de l’école. C’est en prêtant de nouveau attention aux dynamiques de la (re)copie et à l’intégrité des documentations de soi que chacun pourra prendre la mesure des politiques algorithmiques qui nous gouvernent et décider de s’autoriser à sortir - s’il le souhaite - d’un internet des silos. Pour parcourir ce chemin il faudra soigneusement veiller à défendre, au cœur même de l’école, de la "schola", de cette enceinte au bout du chemin, le rôle et la place qu’y occuperont les notions d’open source, de logiciel libre, de licences creatives, et par dessus tout de "bien commun".
Et puis peut-être plus concrètement, il faudrait enseigner la publication et en faire l’axe central de la déclinaison de l’ensemble des savoirs et des connaissances. Avec la même importance et le même soin que l’on prend, dès le cours préparatoire, à enseigner l’écriture. Enseigner la publication, apprendre à renseigner l’activité de publication dans son contexte, dans différents environnements. Comprendre que l’impossibilité de maîtriser un "savoir publier", sera demain un obstacle et une inégalité aussi clivante que l’est aujourd’hui celle de la non-maîtrise de la lecture et de l’écriture, un nouvel analphabétisme numérique hélas déjà observable.
Car comme le rappelait Bernard Stiegler : « Reste que la démocratie est toujours liée à un processus de publication – c’est à dire de rendu public – qui rend possible un espace public : alphabet, imprimerie, audiovisuel, numérique. » http://www.rslnmag.fr/post/2011/3/1...

  • RESTEZ
    CONNECTé