2009
mai
10

Entretien avec... Bernard Stiegler (Philosophe, Directeur de l’IRI, Professeur à l’université de technologie de Compiègne)

Entretien mené par Ivana Ballarini-Santonocito et Alexandre Serres

Sur la culture informationnelle

Questions  : La culture informationnelle est une problématique qui nous tient à cœur et votre avis sur cette notion nous intéresse. Tout d’abord, quelle importance attachez-vous à la nécessité d’une formation, voire d’une éducation, à la culture informationnelle, à tous les niveaux du système éducatif, depuis l’école jusqu’à l’université ? Comment définiriez-vous cette culture ? Quels objectifs devrait-elle viser et quels contenus devrait-elle transmettre aux élèves ? Est-ce qu’il s’agirait d’une formation instrumentale à la maîtrise des outils, comme c’est actuellement le cas dans la représentation dominante du ministère, ou est-ce qu’il faut élargir cette formation à une formation théorique, réflexive, sur les outils ?

Bernard Stiegler (BS) : J’ai un point de vue un peu radical sur cette question. Il peut paraître totalement utopique parce que pratiquement impossible à mettre en œuvre. J’ai beaucoup promu l’analyse critique des médias dans l’enseignement. Quand j’étais directeur de l’INA j’ai passé un accord avec l’Education nationale pour la conception de programmes de formation à l’audiovisuel. Je pense cependant aujourd’hui que ces choses-là, qu’il faut sans doute faire, ce sont des « emplâtres sur des jambes de bois », pour parler familièrement. Nous sommes aujourd’hui confrontés à une explosion des médiations informationnelles dans tous les domaines de l’existence, y compris la vie domestique – avec ce que l’on appelle les « objets communicants » et « l’Internet des objets » : le frigo qui communique avec le supermarché, les objets domestiques intelligents, etc. Nous vivons désormais dans un monde totalement informationnalisé, et dont l’information de savoir est une petite partie. C’est celui de ce que j’ai appelé l’hypermatériel1.

Dans un monde comme celui-là se posent mille questions, dont celle des menaces contre ce que l’on appelle la deep attention, l’attention formée à l’école, l’attention profondément attentive, celle de l’intellect qui réfléchit, qui analyse. Car les formes de captation de l’attention, qui se font aussi par des moyens informationnels mis en œuvre par les médias, entrent en conflit avec la formation de l’attention qu’assurent l’école et, plus généralement, les éducateurs. Tout cela se fait avec les technologies des médias qui sont aussi celles que l’on met en œuvre désormais en milieux scolaires.

Or, je considère que la première de ces mnémotechnologies est l’écriture : celle-ci constitue la techno-logie de base. Lorsque le présentateur du JT énonce l’actualité et lit le prompteur, il y a de l’écriture. J’aime rappeler que la philosophie est née d’un conflit de techniques de communication : la philosophie est née d’un conflit avec les sophistes qui mésusaient de l’écriture. La philosophie est née de la critique de ce que Platon appelle un pharmakon, un remède qui peut être aussi un poison. Platon voulait redresser ces sophistes en mettant au point une autre pratique du savoir qui est la philosophie – et qui passe bien entendu elle aussi par l’écriture, mais vue comme un remède. Cependant, Platon ne thématise jamais sa pratique de l’écriture.

Mon point de vue radical, que j’ai exprimé au cours d’un congrès du Clémi, consiste à plaider pour qu’on ne donne pas l’agrégation aux candidats qui n’ont pas étudié l’histoire de la formation de la pensée à travers ses instruments en général, à commencer par l’écriture, et jusqu’à la place du cinéma en ethnologie ou en histoire contemporaine, en passant par le télescope et le microscope dans la formation de la science expérimentale et par ce que Mallarmé nomme l’instrument spirituel dans le domaine poétique2. Dans cette approche, on étudierait le rôle qu’a joué l’écriture dans la formation de la grammaire et dans l’histoire de l’orthographe… ce qui serait passionnant pour les professeurs comme pour les élèves car cela nécessiterait une approche pluridisciplinaire des supports du savoir. Il faut dès aujourd’hui inventer des formations pour les élèves et les professeurs en formation, et poser en principe qu’on ne peut pas étudier correctement la physique si on ne connaît pas l’histoire du téléscope. Comment comprendre les grandes questions de la science contemporaine, si on ne connaît pas le rôle que l’instrument joue en mécanique quantique ou encore la place de l’informatique dans le devenir biotechnologique de la biologie ? Or, le public n’y est absolument pas formé, ni les élèves, ni même les professeurs. Il faudrait théoriser ces questions dans toutes les disciplines, et concevoir des enseignements spécifiques, avec des épreuves spécifiques, aussi bien pour l’agrégation que pour les formations universitaires de base, et refonder l’ensemble de la conception de l’enseignement.

Mon deuxième élément de réponse est que ces réalités sont devenues la première activité industrielle mondiale, directement ou indirectement. C’est pourquoi l’on parle de société de la connaissance : la mémoire, les bases de données, l’information sont devenues le secteur industriel de pointe, tandis que le savoir est devenu la première fonction industrielle – comme « R&D » aussi bien que comme « marketing stratégique ». S’il faut donc concevoir un enseignement de base sur l’histoire des disciplines du point de vue de l’histoire des supports, il faudrait aussi élaborer un enseignement de base sur notre époque, c’est-à-dire sur la recherche aujourd’hui, en fonction de cette dimension des savoirs désormais industrielle et de part en part technologique.

Troisièmement, quelque chose de fondamental qui est en train de se produire aujourd’hui : les réseaux numériques sont en train de créer une véritable révolution par rapport à ce qui dominait jusqu’à la fin du XXème siècle, ce que décrivit Adorno sous le nom d’industries culturelles, et qui sont remises en causes avec l’apparition des technologies dites collaboratives, et plus généralement du réseau Internet où les personnes qui sont destinatrices des informations sont aussi productrices, non seulement d’informations, mais aussi de metadata. Si ce phénomène ne date que d’une dizaine d’années, nous n’en sommes qu’à la préhistoire : cela va se développer d’une façon très considérable. Ce qui pose beaucoup de questions car il s’agit de technologies de contrôle redoutables. C’est pourquoi il est fondamental que les citoyens aient conscience de ce que sont les metadata. Ils en sont producteurs, consciemment ou pas, mais qu’ils en aient conscience ou pas, ils ne mesurent pas toutes les conséquences possibles de cette production. Les métadonnées existent depuis la Mésopotamie, où l’on a trouvé des tablettes d’argiles qui décrivaient des stock tablettes et qui constituaient en cela des catalogues. Les métadonnées existent depuis 4000 ans. Il n’y a jamais eu de métadonnées qui n’aient pas été produites par des démarches de contrôle top down, c’est-à-dire hiérarchiques, descendantes et centralisées : contrôle impérial en Mésopotamie, puis royal, puis républicain, et finalement managérial, mais dans tous les cas exercé par des pouvoirs de synchronisation. Les métadonnées permettent de mettre en relation des données. La production de données est une activité diachronique, pour employer une terminologie saussurienne, et cependant ces données ne sont sociales que dans la mesure où elles peuvent être synchronisées. Mais il y a des conditions techniques – et pharmacologiques – de cette synchronisation. Depuis le néolithique, dans nos sociétés, l’écriture et, de façon plus générale, la grammatisation, a permis le stockage, l’analyse, la valorisation, la capitalisation de toutes ses manières de vivre, de ses savoir faire, devenus ainsi des savoirs théoriques, ce qui a produit des systèmes de catalogage, de fichiers, permettant de les catégoriser, de les faire entrer dans des systèmes de représentation du monde : de les synchroniser.

Les pouvoirs centraux sont des producteurs de métadonnées, que ce soit le parlement, le prêtre roi, le mandarin chinois, l’académie française de Richelieu… Un tel pouvoir est un processus top down, c’est à dire hiérarchique et descendant. Or, depuis 1992, depuis l’apparition du world wide web, la production de métadonnées – c’est à dire des éléments de base de la synchronisation – est devenue un processus bottom up, c’est à dire ascendant3 : la métadonnée numérique est produite par des gens de manière empirique, qui n’ont pas du tout l’ambition de prendre le pouvoir, mais simplement ils veulent participer. Ces métadonnées sont pour l’instant extrêmement frustes.

La question de la formation aux technologies de l’information doit être aujourd’hui posée du point vue de ce contexte où tout le monde devient producteur, non seulement d’information, mais de méta-information. Du coup, on peut faire travailler les élèves sur leurs propres pratiques quotidiennes ; il y a là un énorme chantier de formation à ouvrir, et c’est une nécessité fondamentale. Les élèves d’aujourd’hui développent ces pratiques, et sont en avance sur leurs professeurs, sur un mode empirique et nécessairement naïf, qualificatif qui n’a rien de péjoratif ici. Le retard du professeur peut devenir un point de repère s’il donne à penser la question du retard et donc le processus qui l’a produit. Mais si ce retard n’est pas pensé, cela devient un décrochage entre le professeur et ses élèves, c’est-à-dire aussi entre deux générations. Il y a donc trois questions à traiter : la formation des enseignants sur l’importance des supports, l’industrialisation des activités informationnelles, la production et le contrôle des métadonnées.

Une approche théorique et formelle devrait être mise en œuvre par des professeurs spécialisés qui n’enseigneraient pas seulement les méthodes de travail liées aux technologies de l’information mais l’histoire des supports et la théorie de leur place dans la constitution même des savoirs. Il faudrait ensuite que les autres professeurs pratiquent ces techniques dans les autres disciplines, et que le cinéma, la vidéo et la pratique des médias numériques prennent leur place dans l’histoire, la transmission et la production des savoirs, comme l’écriture qui est de toute évidence le médium commun à toutes les formes de connaissances enseignées. Il faudrait pour cela repenser et enrichir le concept des manuels scolaires qui ont été conçus à l’époque de Jules Ferry - d’ailleurs génialement - au sens où ils consistaient à établir un cahier des charges, sous l’autorité de l’inspection générale mais réalisé par des éditeurs privés. Il faudrait que les disciplines passent aujourd’hui par les pratiques de l’audiovisuel et du web de façon structurelle, que l’on arrive à une pratique massive de cette culture, que les manuels soient conçus dans cette perspective et en partie sur ces supports eux-mêmes. Un enseignement historique de la place des supports doit être associé à une pratique généralisée.

Questions : Il faut distinguer deux formes d’intégration des supports informationnels dans l’enseignement : d’une part l’utilisation, la pratique de ces supports intégrée aux situations d’apprentissages dans toutes les disciplines et d’autre part un enseignement spécifique sur ces supports et ces pratiques en tant qu’objets d’apprentissage. Ainsi le document peut être un outil au service des apprentissages disciplinaires mais aussi un objet d’enseignement en tant que tel.

BS  : Pas seulement le document, le support en général. C’est la façon de regarder l’objet qui fait qu’il devient un objet de savoir. Lorsque Marcel Détienne écrit Les savoirs de l’écriture en Grèce ancienne, où il montre comment l’écriture a permis l’appréhension de la langue comme objet et non plus comme flux, la catégorisation analytique devient possible.

Il y a donc trois niveaux d’enseignement : d’une part l’épistémologie documentaire des disciplines, examinant comment les matériels du savoir conditionnent la formation même des savoirs. D’autre part la théorie de la documentation et du traitement des documents. Enfin, la pratique des disciplines elles-mêmes à travers ces techniques documentaires, comment on pratique l’écriture en histoire ou en géographie, comment ces disciplines sont changées par le cinéma, par exemple pour l’histoire du XXème siècle, et ce qu’apporte la numérisation des archives textuelles ou non aux pratiques des historiens, mais aussi des enseignants et de leurs élèves, les problèmes que cela pose et les questions nouvelles qui en surgissent. La cartographie connaît de nos jours un renouveau évident : cela devrait devenir un objet de pratiques géographiques nouvelles. Il faut que ces trois niveaux soient pensés ensemble, mais en même temps de façon bien distincte, car ce ne sont pas les mêmes approches du tout.

Culture informationnelle, culture informatique, culture des médias

Q. : Sur la question de culture informatique et culture informationnelle, on voit bien qu’il y a des liens très forts entre l’enseignement de l’informatique et la recherche d’information, les aspects documentaires. Comment se positionne selon vous cette culture informationnelle par rapport à celle informatique, d’une part et, d’autre part, à la culture des médias ? Ce que les américains appellent la transliteracy.

BS : Depuis l’origine des premières formes d’écriture jusqu’à l’informatique et à la biotechnologie, l’évolution des mnémotechniques relève d’un processus de grammatisation. La grammatisation est ce qui permet de discrétiser, au sens mathématique du terme, un signal et de ce fait de le reproduire. Par exemple, je peux discrétiser la langue avec une trentaine de signes diacritiques : les lettres de l’alphabet. L’alphabet permet de retranscrire n’importe quelle langue du monde dont il accomplit la discrétisation littérale. Il existe trois discrétisations : littérale, analogique et numérique. Elles n’ont pas les mêmes modalités de socialisation et ne produisent pas les mêmes effets épistémiques. Typiquement, on ne fait pas de calculs sur des grammatisations analogiques, alors que l’informatique est faite pour faire des calculs, des traitements. Dans le cas de l’analogique, la discrétisation est insensible pour le destinataire. Quand je regarde la télévision, cela m’apparaît comme un flux continu : cela se présente comme si je regardais par la fenêtre. Pour l’appareil c’est discret, si ce n’était pas discrétisé il ne pourrait pas le traiter, il ne pourrait pas moduler le signal. En passant de l’appareil analogique à l’appareil numérique, des parties du signal m’apparaissent en tant que discrètes, et c’est ce qui rend possible ce qu’on appelle l’interactivité : je peux alors agir sur l’information, la transformer, et non seulement la subir.

La question de l’enseignement des médias informationnels et du « décodage des médias » est liée à une époque caractérisée par des technologies qui transforment cette époque elle-même, processus dont il s’agit de rendre les élèves conscients autant qu’il est possible, ce qui suppose évidemment que les enseignants le soient eux-mêmes, et ce n’est manifestement pas le cas car ils n’ont pas été formés pour cela. Ces réalités ne sont pas seulement technologiques, mais sociales. L’information, par exemple, est d’abord une marchandise : ce qui fait sa valeur économique, sinon épistémique, c’est que tout le monde n’y a pas également accès.

Les médias analogiques, qui vont rapidement devenir les médias de masse (la radio, la télévision) bouleversent la face du monde, ce qui est important à comprendre ce sont les effets qu’ils ont produit. On peut faire décoder des émissions par les élèves autant que l’on veut, si l’on n’a pas d’abord mis en évidence le sens historique de l’apparition de ces médias, et en quoi ils transforment par exemple la calendarité sociale, un tel « décodage » n’est pas très utile. Quant à l’informatique, il ne sert à rien d’enseigner les langages de programmation qui changent d’ailleurs sans cesse et que les jeunes vont découvrir par eux-mêmes dans leurs pratiques. La véritable question est de faire comprendre aux élèves les enjeux du processus de grammatisation dans ses différents aspects, avec ses spécificités technologiques et sociales, et qui ne concerne d’ailleurs pas que le langage où la perception audiovisuelle, mais aussi les gestes des ouvriers avec la machine outil, et plus généralement, tout ce qu’intègre l’automatisation.

Les élèves et les professeurs eux-mêmes sont perdus devant une multitude de faits technologiques qui se développent en tous sens dans ces domaines, alors que c’est toujours le processus de grammatisation qui déroule diversement ses effets. Si on n’a pas cette vision d’ensemble, on ne peut pas comprendre ce qui se produit, ni donc accéder à l’intelligibilité qui fonde tout enseignement. Le concept de grammatisation, que je tiens de Sylvain Auroux et que j’ai élargi, permet de définir des époques et des techniques qui apparaissent et qui ne disparaissent jamais, contrairement à ce qu’on pense. En aucun cas l’informatique ne fait disparaître la lecture et l’écriture, c’est au contraire une archi-lecture qui change les conditions de la lecture et de l’écriture. Il est important de comprendre les processus de transformation dans la durée, et de savoir décrire historiquement et spatialement les choses. Aujourd’hui on va étudier comment se fait le JT mais peut-être que dans dix ans il n’existera plus. L’essentiel est de comprendre la cohérence historique des événements et des époques. L’information et la communication sont des industries qui supposent des appareils de production. Il faut comprendre où sont les rapports de force, où sont les grandes ruptures technologiques. Par exemple, la grille de programmes a rythmé la vie des gens, mais c’est maintenant une organisation en pleine régression avec ce qu’on appelle la catch up télévision ou la catch up radio.

Q. : Par rapport à l’informatique, pensez vous qu’il faut déconstruire, au sens théorique, soulever le capot des ordinateurs ? N’est-il pas important de mettre un peu d’opacité derrière ce qui apparaît transparent, évident aux élèves, comme le fonctionnement des moteurs de recherche, par exemple ? A travers le web 2.0 justement, on voit bien que des nouveaux enjeux apparaissent, non pas seulement économiques mais citoyens, politiques et sociaux. Comment voyez-vous le rôle des enseignants par rapport à ces questions-là ? L’école ne devrait-elle pas s’en emparer ?

BS : Nous sommes ici dans le très court terme, car cela fait très peu de temps que tout cela existe. Nous n’arrivons pas à suivre, nous sommes en pleine explosion. Il faut être capable de prendre un peu de recul. Sur la question des moteurs de recherche, c’est une réalité qui pose des questions aux économistes, qui ne savent pas toujours les penser parce qu’ils rompent avec les modèles classiques. Les espaces du web 2 sont producteurs de ce que l’on appelle des externalités positives que l’économie elle-même ne sait pas penser. C’est un problème d’immaturité des savoirs théoriques face à ces objets extrêmement récents avec lesquels on est obligé de travailler un peu à l’aveugle. Il faudrait faire des cellules de veille théorique, nourrir des débats où les enseignants et les chercheurs pourraient se former en permanence, avec les difficultés et les risques du travail à chaud. Il faut développer des pratiques critiques, car il y a deux types de pratiques : soit on croit que Google est devenu le monde, sans distance critique, comme devant le JT, sans aucune conscience que tout cela est monté, dans le cas du JT par une rédaction, dans celui de Google par un algorithme et l’organisation qui l’exploite ; soit on en a une pratique critique et on se sert de l’instrument pour critiquer l’instrument lui-même, pour en avoir une pratique réflexive et analytique. On pourrait imaginer des exercices, il y a des choses à faire faire aux élèves : il faut faire des cours magistraux aussi bien que des exercices pratiques.

Q.  : Mais souvent les élèves pensent savoir faire et sont réticents aux cours magistraux...

BS  : Le cours magistral ne marche pas quand il est mauvais ou quand le savoir n’est plus crédible. Le cours doit apporter des réponses aux questions que les élèves se posent, sinon il y a décrochage. Ceci étant rappelé, c’est devenu difficile parce que si l’on a fonctionné pendant des décennies et même des siècles sur la base d’un enseignement qui était formé par la consolidation d’un savoir constitué, aujourd’hui la situation est très différente, les élèves entendent dans les médias des choses que l’on ne sait même pas comment qualifier sur le plan théorique, et ce parce que les savoirs technoscientifiques évoluent beaucoup plus vite que leur théorisation – un peu comme les pratiques des élèves qui évoluent plus vite que celles des éducateurs ! Si on fait cours comme si tout cela n’existait pas, les élèves n’écoutent même pas. Les enseignants doivent aussi faire cours sur leur « non savoir », sur ce qu’ils ne savent pas, ignorance magistrale qui ne doit pas devenir un sujet de panique mais un élément dynamique. Le professeur est là pour apporter la mémoire, la connaissance accumulée, la robustesse et la profondeur de temps des notions qui pensent ce qui fonctionne parfois depuis 4000 ans, comme l’indexation des tablettes d’argile mésopotamiennes, par exemple. J’ai souvent affaire à des étudiants qui en savent plus que moi sur certains points : c’est une chance pour moi et pour eux si cela nous donne l’occasion de penser ensemble. Il faut qu’il y ait des échanges intergénérationnels à travers des cours très coopératifs. Le professeur est là aussi pour prendre ce que les élèves lui apportent et les aider à le remettre en forme, ce que les élèves apprécient beaucoup.

Sur les technologies numériques, les jeunes en savent souvent plus que nous, cela fait partie de la structure même de ces technologies, il faut l’accepter et même s’en réjouir. Cela veut dire qu’il faut inventer une nouvelle dialectique au sens de Platon : quand l’élève se pose une question, cela nourrit le maître et le fait réfléchir. La dia-lectique, c’est très participatif : c’est la base même du dia-logue. Le cours doit intégrer cet espace dia-logique. A l’époque où les technologies du web 2 et du collaboratif se développent, il faut en tenir le plus grand compte. Les technologies colllaboratives sont des hypomnémata dialogiques. Si j’étais professeur de collège, j’essaierais de créer un réseau social de ma classe, par exemple. Pour cela il faudrait créer des cours spécialisés, mais qu’il faudrait d’abord dispenser aux enseignants eux-mêmes.

Regard sur le web

Q.  : Dans vos approches du web et d’internet, vous insistez surtout sur les potentialités (et elles sont nombreuses) des outils numériques, sur les pratiques collaboratives, sur l’intérêt de Wikipedia, etc. Mais le web, comme tout hypomnematon, tout support de mémoire, est un nouveau pharmakon, pour reprendre cette notion que vous avez si profondément analysée : il est à la fois le poison et le remède, le problème et la solution. Dès lors, quels seraient, selon vous, les aspects les plus nocifs, les plus problématiques du web ? Par exemple, comment percevez-vous les évolutions du web 2.0, et les mutations qui accélèrent le passage de l’autorité à la popularité ? c’est-à-dire le remplacement, de plus en plus marqué sur les blogs, les réseaux sociaux, les moteurs de recherche, de l’autorité par la valeur de la popularité ?

BS  : La notoriété remplace de plus en plus l’autorité sur le web, on a affaire à des « notables du web », mais cette notoriété, fabriquée selon les nouvelles formes d’audimat, produite par ce que l’on appelle le buzz, peuvent conduire à un véritable populisme numérique. C’est une forme d’audimat participatif, un hyper audimat en quelque sorte, comme avec Amazone pratiquant le profilage de l’utilisateur. Il est évident que ce sont des logiques au moins aussi dangereuses que celles des médias de masse comme la télévision. Sans parler les artefacts relationnels qui créent de la fausse relation, comme il y a de la fausse notoriété « qui dure un quart d’heure », une notoriété fabriquée, manipulable, produite par des dispositifs industriels et marketing, ainsi de Star Academy. Ces artefacts relationnels, provoquent des courts-circuits dans ce que j’appelle la transindividuation. Un court-circuit dans les structures relationnelles établies donne un avantage à celui qui provoque le court-circuit, ce que fait aussi la télévision. Mais avec les médias numériques, on peut faire du travail chirurgical, personnaliser, suivre les gens de manière extrêmement rapprochée, avec une efficacité qui peut conduire à une catastrophe psychique. On n’en finirait pas de faire la liste des dangers du web.

Et pourtant, tandis que le pharmakon télévisuel est intrinsèquement dissociatif, le web est structurellement associatif, et il y a beaucoup plus à attendre des médias numériques que des médias analogiques. La télévision repose sur la dissociation, elle rompt les espaces et les temps dialogiques - c’est ce que décrivait Guy Debord dans La société du spectacle – en imposant une logique émetteur-récepteur qui a mis en place dans le monde du symbolique la logique des entreprises avec des producteurs d’un côté, des consommateurs de l’autre. TF1 détruit le symbolique, qui est intrinsèquement dialogique. Cela a pour effet une désublimation et une désaffection qui ruine les efforts des éducateurs. Cela conduit au pulsionnel – non seulement les élèves, mais aussi leurs parents, c’est à dire aussi les éducateurs, enseignants compris bien sûr.

Aussi dangereux qu’il puisse être, le nouveau médium ne fonctionne pas comme cela : Internet ne peut marcher que s’il y a une participation. Cela ne veut pas dire qu’il n’est pas dangereux, il est pharmacologique comme tout hypomnematon, il peut, par exemple, produire d’un hyperaudimat participatif. À cet égard il peut être encore plus dangereux car il implique encore plus les gens : il individualise, il permet la personnalisation du marketing. Mais en même temps il ouvre des possibilités de rupture avec le modèle, à condition qu’on arrive au web 3 critique : celui où on développe sur le web des comportements d’analyse et de critique du web. C’est ce à quoi je travaille au sein de l’institut de recherche et d’innovation 4.

L’écriture est la loi de la philosophie : Socrate existe parce qu’il est écrit par Platon. L’écriture est vue comme le poison de la cité grecque, les philosophes écrivaient sur l’écriture ce que j’écris sur la télévision. Les sophistes étaient de petits médias, des médias ouverts à quelques centaines d’individus mais qui rapportaient beaucoup d’argent. Il y a cependant aussi des effets curatifs de la télévision, je ne condamne pas la télévision par elle-même. Mais elle est devenue aujourd’hui fondamentalement toxique. Une chaîne ne subsiste que si elle augmente son audience, or l’augmentation de l’audience vise inévitablement la notoriété populaire qui tend au populisme.

Q.  : En même temps l’audience est une condition nécessaire !

BS : Vous parlez du public. L’audience n’est pas le public, elle augmente le temps de cerveau disponible financé par la publicité et détruit le public. L’espace et le temps publics sont des espaces et des temps critique, tandis que l’audience a précisément pour but de liquider toute critique - toute attention profonde : la captation de l’attention par les ficelles qui produisent l’audimat conduit à la destruction de l’attention. Qu’il y ait une masse fascinée devant un écran comme autant de papillons attirés par une lumière dans la nuit ne signifie pas qu’il y a un public, tout au contraire ! Cette lumière n’a aucun rapport avec celle des Lumières dont parle Kant dans un texte fameux, elle n’éclaire aucun public, mais hallucine une audience grégaire et dangereuse.

Pour revenir à la question du web, on a affaire à des technologies participatives très évolutives qui font que les élèves seront de plus en plus légitimement exigeants sur ce plan. Il y a une obligation pour les enseignants, les inspecteurs et les ministres à intégrer le fait qu’ils ont affaire à des publics outillés sur lesquels ils doivent compter. Il faut tenir le plus grand compte de ces nouvelles pratiques.

Q. : Dans un entretien donné à Christian Fauré, vous dîtes que les technologies du web 2.0 ne sont pas encore arrivées à maturité. Que manque-t-il, selon vous, pour arriver à des technologies matures, au plan des usages socio-cognitifs ? Quels développements technologiques seraient nécessaires pour permettre des usages intéressants, élevant notamment la « valeur esprit » ?

BS : Je pense qu’aujourd’hui cette inventivité ne s’est pas encore constituée comme espace critique. Ce sont des technologies qui restent très individualistes, elles ne produisent pas encore de trans-individuation, des espaces critiques de trans-individuation. Nous travaillons ici (à l’IRI) à développer des technologies pour produire ce que j’appelle des « orages sémantiques », c’est à dire des conflits d’interprétation : le savoir n’avance que quand il y a des désaccords. L’accord est un consensus qui permet de produire, c’est de l’application, de la technologie, mais dans la science, c’est le désaccord qui est important : il produit une crise qui produit elle-même un jugement (qui se dit en grec krinon) et donc un point de vue. L’espace collaboratif du web 2 n’est pas encore un espace critique : c’est un espace dialogique qui n’est pas encore parvenu au stade critique. La dialogique critique apparaît avec les pré-socratiques, et elle va devenir analytique et conduire à la logique à partir du moment où il va y avoir des règles d’administration des conflits, ce que l’on appelle l’éristique, le conflit des points de vue, des règles d’administration de la preuve ou de la démonstration, qui ne seront pas les mêmes selon les disciplines : on peut démontrer intégralement la matière géométrique, mais cela ne marche pas en littérature où l’on argumente, en revanche, sur des points de vue, où il y a des phases critiques ; on peut argumenter et contre argumenter, il y a des gens qui s’opposent, sur la base de règles fournies par les disciplines. Aujourd’hui sur Internet ces choses n’existent pas encore.

Quand vous écoutez de la musique, quand vous regardez un film, qui sont des objets temporels, un plan succède à un autre, et le plaisir naît de cet enchaînement. Mais si vous êtes un amateur de cinéma, vous ne vous contentez pas de cela, vous vous attachez à le démonter d’un point de vue analytique, critique, pour comprendre comment cela fonctionne. Ce point de vue critique est produit par des communautés critiques qui entrent en conflit grâce à des appareils d’argumentation. Sur le web collaboratif et dialogique, on ne trouve pas encore ces appareils critiques. Nous travaillons actuellement à des logiciels qui permettent d’inscrire des points de vue dans un film, de l’annoter, d’inscrire des manières de regarder le film, sorte de lecture, d’écoutes ou de regards signés. C’est ce que permet en particulier Lignes de temps. Cela permet de constituer une autorité qui n’est pas la notoriété populiste que produisent l’audimat et l’hyperaudimat. Ce n’est pas une autorité au sens de la documentique ou de la bibliothéconomie, c’est une autorité qui va construire un certain type de regard, qui est une singularité. Mais celle-ci peut engendrer un appareil de métadonnées qui peuvent devenir des autorités en ce sens aussi. On peut aujourd’hui, grâce aux technologies du web 2, faire la traçabilité de ces regards singuliers et ouvrir des espaces et des temps critiques pour des communautés critiques.

Entretien publié dans le Médiadoc N°2 d’avril 2009, http://www.apden.org/spip.php?article77

Documents

Entretien avec... Bernard Stiegler
PDF - 73.2 ko

PDF - 146.7 ko

PDF - 96.6 ko
  • RESTEZ
    CONNECTé