High Frequency Documentary

NDLR: Ceci est un article d’Olivier Ertzscheid, enseignant-chercheur (Maître de Conférences) en Sciences de l’information et de la communication. Extrait de son (excellent) blog Affordance.info. L’article est sous licence Creative Commons BY-NC-SA. Vous pouvez également le consulter à la source > http://affordance.typepad.com/mon_weblog/2012/03/documentation-haute-frequence.html.

>>> Article chronophage. Prêt? A vos marques ? Bonne lecture !

Documentation haute fréquence

De retour du congrès FADBEN, vous trouverez ci-après mon pauvrepoint ainsi qu’un texte rédigé à partir d’icelui. Par parenthèse, la toute fin de ce texte (à partir de « OK c’est bien joli tout ça mais on fait quoi ») pourra être lue comme ma réaction au truc dont tout le monde parle en ce moment (non, pas Toulouse, le prof qui a pourri le web et piégé ses élèves et tout ça).

Bonne lecture (et grand merci à la FADBEN pour ce congrès de haute intelligence).

1996.

Nous sommes en 1996. Le web est âgé d’à peine 7 ans. Le premier outil de navigation grand public, Mosaïc, a 3 ans. John Perry Barlow rédige et publie la « déclaration d’indépendance du cyberespace » (https://projects.eff.org/~barlow/Declaration-Final.html), un texte qui reste emblématique de l’idéologie des « pionniers » et qui fut structurant pour toute une génération de primo-internautes. On peut notamment y lire ceci :

« Nous sommes en train de créer un monde ouvert à tous, sans privilège ni préjugé qui dépende de la race, du pouvoir économique, de la puissance militaire ou du rang de naissance.

Nous sommes en train de créer un monde où chacun, où qu’il soit, peut exprimer ses convictions, aussi singulières qu’elles puissent être, sans craindre d’être réduit au silence ou contraint de se conformer à une norme.

Vos notions juridiques de propriété, d’expression, d’identité, de mouvement et de circonstance ne s’appliquent pas à nous. Elles sont fondées sur la matière, et il n’y a pas de matière ici.« 

2012

Nous sommes en 2012. 16 ans plus tard, que reste-t-il de cette déclaration d’indépendance ? Un constat d’échec. Aujourd’hui, la plus grande partie du cyberespace est un monde fermé, propriété, contrôlé par le marketing, régi par un carcan de normes arbitraires, de lois liberticides et de technologies « privatives ». Un monde hyperterritorialisé sous le contrôle de quelques multinationales. En voici quelques (rapides) illustrations.

ÉLÉMENTS DE CONTEXTE : LA FIN D’UNE IDEOLOGIE.

La norme et le pornographe.

« Sans être contraint de se confronter à une norme ? » Les normes sont aujourd’hui omniprésentes dans l’écosystème des sites sur lesquels la planète connectée passe l’essentiel de son temps. Nous faisons face en permanence à des stratégies normatives qui n’émanent ni du législateur (à l’exception notable de la pédophilie et, dans certains pays, de la vente d’armes) ni d’un imaginaire collectif, mais d’un cénacle de décideurs ou d’actionnaires qui définissent les conditions d’expression de l’humanité connectée sur leurs produits et leurs services. Une situation d’autant plus problématique que ces normes oscillent en permanence entre l’arbitraire et le régime d’exception. Pour ne prendre que le cas de Facebook, les usages de 800 millions d’individus connectés doivent satisfaire à l’idée que Facebook se fait de la morale, de ce qui est publiable et de ce qui ne l’est pas. « L’origine du monde », célèbre tableau de Courbet est considéré comme de la pornographie, et les internautes qui ont choisi d’utiliser ce tableau comme photo de profil ont vu leur compte fermé (http://www.cyberpresse.ca/arts/arts-visuels/201102/16/01-4370975-lorigine-du-monde-interdit-de-facebook-pour-cause-de-nudite.php). Pour le même motif de pornographie, et toujours sur Facebook, nombre de campagnes publicitaires pour la prévention du cancer du sein ont également été censurées (http://archives-lepost.huffingtonpost.fr/article/2011/11/03/2629481_le-cancer-du-sein-une-nouvelle-fois-censure-sur-facebook.html). De la même manière que l’on ne compte plus les polémiques ayant trait à l’existence de groupes sur l’allaitement : une photo de femme allaitant son enfant n’est pas considérée comme pornographique si l’on voit son sein, elle le devient si l’on aperçoit son téton (http://www.lexpress.fr/actualite/high-tech/facebook-n-aime-pas-les-photos-d-allaitement_728908.html).  Sur ce même sujet, les polémiques concernant la firme Apple sont au moins aussi nombreuses, Steve Jobs ayant explicitement déclaré qu’il interdisait toute forme de pornographie sur l’Apple Store (http://www.pcinpact.com/news/56467-steve-jobs-porno-android-market.htm). Mais là encore, la notion est à géométrie variable comme en atteste l’une des plus médiatiques affaires concernant une application de caricatures politiques jugée obscène et donc retirée de l’Apple Store, avant que l’on ne s’aperçoive que l’auteur des caricatures étant le dernier titulaire du prix Pulitzer (http://www.01net.com/editorial/515495/le-prix-pulitzer-banni-de-liphone-steve-jobs-sexcuse/ ), et que son application ne soit donc … réintégrée.

Le net identitaire.

« Vos notions juridiques d’identité ne s’appliquent pas ». Rien n’est moins vrai à l’heure où l’ensemble des acteurs de l’économie du web s’orientent délibérément vers des stratégies interdisant l’anonymat ou même toute forme de pseudonymat. Nous sommes sommés, pour pouvoir utiliser leurs services, de nous y enregistrer sous notre vrai nom et de fournir la preuve de notre identité (http://www.numerama.com/magazine/19464-l-anonymat-en-ligne-doit-disparaitre-selon-une-responsable-facebook.html  et http://www.lepoint.fr/high-tech-internet/google-et-facebook-exigent-votre-vrai-nom-27-07-2011-1356669_47.php). Une fois encore, selon que vous serez puissant ou misérable il est possible, à titre exceptionnel de se soustraire à cette norme imposée. Le célèbre écrivain Salman Rushdie réussit ainsi à obtenir l’autorisation de maintien de son compte Facebook sous son nom de plume (http://leplus.nouvelobs.com/contribution/214002-comment-l-ecrivain-salman-rushdie-a-fait-ceder-facebook-en-dix-tweets.html).

La loi et l’ordre.

« Vos notions juridiques de propriété ne s’appliquent pas ». Le web et avec lui toute l’économie de l’internet sont aujourd’hui sur un basculement radical de leur modèle : en entrant dans l’âge adulte, en assumant leur statut de « mass media » ils héritent également de l’arsenal législatif contraint qui encadre l’économie « réelle » sous la pression manifeste des lobbys et autres groupes d’influence. Ainsi en France, les lois DADVSI puis HADOPI fonctionnent essentiellement comme des mécanismes de maintien des rentes de situation des quelques GateKeepers des industries culturelles. Plus globalement, les lois ou projets de lois ACTA, SOPA et PIPA (http://www.internetactu.net/2012/01/18/pourquoi-devons-nous-arreter-la-sopa-et-la-pipa/) remettent en lumière un débat déjà ancien sur la nécessité de maintenir une neutralité du réseau. Non que l’on puisse faire l’économie d’un cadrage juridique et législatif des pratiques connectées à l’heure où elles sont à ce point massifiées, mais nous voulons ici souligner l’inadaptation patente de la territorialité du droit face à la déterritorialisation des accès. Dans le même temps, la durée du droit d’auteur ne cesse d’augmenter (http://www.numerama.com/magazine/21129-l-affaiblissement-progressif-du-domaine-public-en-un-schema.html), et la part du domaine public ne cesse de se réduire à tel point que des oeuvres qui y étaient entrées en sont parfois ressorties manu militari (http://www.numerama.com/magazine/21374-aux-usa-des-oeuvres-sortent-du-domaine-public.html).

La censure et le contrôle.

« On peut s’exprimer sans crainte d’être réduit au silence ». La formidable chambre d’écho que Facebook ou Twitter constituèrent à l’occasion du soulèvement des peuples du « printemps arabe » ne doit pas faire oublier la systématisation de politiques qui, pour ces mêmes sites, vont du filtrage à la censure technique (http://www.google.com/hostednews/afp/article/ALeqM5ghg-D5JHommUgu2FSzIkHstSI-3A?docId=CNG.bac39197fd7f58d6b9e2ac4c750cc082.9e1) en passant par la surveillance idéologique et parfois même jusqu’à la délation pure et simple, comme dans l’affaire de Yahoo! livrant au gouvernement chinois les noms de dissidents hostiles au régime (http://www.liberation.fr/monde/0101108663-yahoo-aurait-denonce-des-dissidents-chinois). Le site Opennet.net constitue sur le sujet une mine précieuse de renseignements sur l’état de l’exercice des libertés démocratiques sur le réseau.

La 4ème phase de contrôle du cyberespace.

Dans l’un des ouvrages rédigés par le groupe de chercheurs et d’universitaires à l’origine de ce projet (http://access.opennet.net/contested/chapters/) on trouve un historique passionnant de la mise en place de ces politiques de contrôle et de censure qui indique que nous sommes aujourd’hui entrés dans la « 4ème phase de contrôle du cyberespace ».

  • Le premier temps fut celui des années 1960 à 2000, baptisé « Open Commons » et qui correspond au mouvement initial de démocratisation de l’internet et du web, au discours irénique qui le sous-tendait, et à l’époque où les états prenaient pour quantité négligeable ce qui se passait sur le réseau des réseaux.
  • Les années 2000 à 2005 sont baptisées « Access Denied » puisque l’on vit certains états (Chine, Arabie Saoudite) commencer à bloquer l’accès à certains sites.
  • Les années 2005 à 2010 furent celle de « l’Access Controlled » avec un contrôle plus fin, à la fois des accès et des personnes.
  • La 4ème phase de contrôle du cyberespace dans laquelle nous sommes aujourd’hui entrés est marquée par un corpus doctrinaire des technologies et de spolitiques de contrôle de plus en plus partagé, y compris par les tenants d’un internet « ouvert ». Il s’agit d’une phase de légitimation globale du contrôle, à la fois par les gouvernements et les entreprises.

L’industrie lourde du net.

« Il n’y a pas de matière ici ». Là encore, le discours irénique des pionniers doit faire face à une réalité qui fait du web et d’internet une industrie lourde, aussi bien sur le terrain de la transmission (réseaux de réseaux filaires, satellitaires) que sur celui du stockage (datacenters, Cloud Computing). A titre d’exemple, on estime que la consommation électrique des DataCenters représente 2% de l’ensemble de celle de la planète (http://www.pcworld.fr/2011/08/02/business/les-data-centers-consommation-electrique-mondiale/517871/).

« Selon que vous serez, puissant ou mésérable. »

« Un monde sans privilège ni préjugé qui dépende du pouvoir économique ». Nouvelle désillusion puisque, parmi d’autres, on commence aujourd’hui à voir fleurir un web assurantiel, avec le groupe Axa qui propose « la 1ère assurance contre les dangers d’internet (sic) » (http://www.axa.fr/prevoyance-protection-des-proches/Pages/protection-familiale-integrale.aspx?xtor=SEC-116) proposant, par exemple de « nettoyer les données malveillantes vous concernant sur Internet » … à ceux qui en auront les moyens financiers.

Naturellement, toutes de nos pratiques documentaires connectées sont impactées par l’effondrement de ce discours idéologique, ce qui implique, avant de réfléchir aux meilleurs moyens pour les enseigner, de comprendre d’où viennent nos objets documentaires numériques.

D’OÙ VIENNENT NOS OBJETS DOCUMENTAIRES NUMÉRIQUES ?

De l’internet des silos.

 En contrepoint d’un web ouvert, les grands groupes qui structurent aujourd’hui l’économie du net autant que nos habitus de connexion, se sont constitués en autant de biotopes fermés, propriétaires, étanches à toute forme d’extériorité. C’est le cas de Facebook, d’Apple, d’Amazon mais également de Google ou de Twitter.

Dans un texte fondateur publié en 2010, Tim Berners Lee s’est ouvertement alarmé de cette orientation vers ce qu’il appelle des « jardins fermés » (« walled gardens ») en plaidant pour la nécessité de maintenir un réseau neutre et reposant sur des standards technologiques ouverts (http://www.scientificamerican.com/article.cfm?id=long-live-the-web&page=2).

Les problèmes que posent ces jardins fermés sont nombreux, comme sont nombreux ceux soulevés par les immenses quantités de données (« Big Data ») dont ils diposent à leur seul gré et parmi lesquels on mentionnera simplement l’usage contraire à l’éthique qui peut en être fait ou les nouvelles fractures numériques entre ceux possédant l’accès à ces données et ceux qui en sont privés (http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1926431).

Dans ces jardins fermés, chaque acteur a intérêt à favoriser les résultats de son écosystème direct (http://searchengineland.com/examples-google-search-plus-drive-facebook-twitter-crazy-107554) et à refuser ou brider toute forme d’externalité non-directement rentable. Ainsi, pour une recherche sur une vidéo, Google surpondérera et affichera en premier les résultats provenant de YouTube (qu’il a racheté) au détriment des résultats en provenance d’autres sites présentant pourtant la même vidéo.

De la même manière la fonctionnalité « like » (« j’aime ») mise en avant par Facebook à l’intérieur de son site mais également sur une multitude de sites tiers à vocation à centraliser les informations de navigation (et les préférences des utliisateurs) pour le seul usage de Facebook, dans une logique radicalement inverse à celle du lien hypertexte (http://affordance.typepad.com/mon_weblog/2010/05/le-like-tuera-le-lien.html). Ainsi ces nouvelles ingénieries relationnelles présentes dans tous les systèmes dits « de recommandation » nous astreignent à une navigation de plus en plus fermée, de type carcérale, dans laquelle il est de plus en plus difficile et de moins en moins « naturel » de parvenir à s’extraire des sentiers les plus fréquentés, ou des zones de liberté conditionnelle qui nous sont assignées. 

Politiques ou dictatures algorithmiques ?

Les politiques algorithmiques de chacun de ces acteurs gouvernent désormais l’essentiel des documents, des profils et des traces en circulation sur le réseau. Or ces algorithmes sont, pour des raisons évidentes, parfaitement opaques et ne peuvent être rendus publics. Mais faute de pouvoir disposer d’alternatives efficaces, nous sommes contraints de nous soumettre à ces modes de classement, de tri, d’organisation et de hiérarchisation de l’information. Or, à l’heure actuelle, et dans la même logique d’enfermement que celle décrite précédemment, ces algorithmes donnent une part de plus en plus importante à la personnalisation, à un point tel qu’en combinant les possibilités de Google Suggest (suggestion de termes en cours de frappe) et de Google Instant Search (affichage de la page de résultats sans attendre la fin de la saisie de la requête), nous nous voyons imposer des réponses à des questions que nous n’avons pas encore posées (http://affordance.typepad.com/mon_weblog/2010/09/la-reponse-avant-la-question.html). Une dérive que Marguerite Duras avait prophétisé dès 1985 lorsque dans une entrevue télévisée au cours de laquelle on lui demandait d’anticiper ce que serait l’an 2000, elle déclarait ceci (http://affordance.typepad.com/mon_weblog/2011/12/le-petit-lien-du-week-end-1.html) :

« Il n’y aura plus que ça, la demande sera telle que… il n’y aura plus que des réponses, tous les textes seront des réponses en somme. Je crois que l’homme sera littéralement noyé dans l’information, dans une information constante. Sur son corps, sur son devenir corporel, sur sa santé, sur sa vie familiale, sur son salaire, sur son loisir. C’est pas loin du cauchemar. » 

Documentation à haute fréquence. 

Le « High Frequency Trading » (HFT) désigne l’actions de ces algorithmes qui, sur les marchés boursiers, effectuent sans aucune intervention humaine, des opérations d’achat et de vente d’actions, et ce à une fréquence de la milliseconde. Cette pratique a souvent été signalée comme l’une des origines – ou l’un des facteurs aggravants – de la dernière crise boursière. Dans le contexte d’un internet des silos gérant d’immenses quantités de données (big data) dans des environnements fermés et propriétaires, effectuant une indexation en temps réel des informaitons circulant dans lesdits écosystèmes et personnalisant à outrance les résultats affichés, on ne peut qu’être frappé par les similitudes existant entre le HFT décrit plus haut et ce qui relèverait d’une « documentation à haute fréquence », c’est à dire à un processus de publication de mise en mémoire et en accès de documents et d’informations qui s’effectue :

  • sur la mainmise d’une gestion des flux (documentaires et non plus boursiers)
  • sans aucune intervention humaine
  • sous la conduite exclusive d’algorithmes
  • dans des temporalités de l’ordre de la milliseconde
  • dans une opacité totale

Les résonnances avec les travaux d’Alain Giffard sur les « lectures industrielles » (http://alaingiffard.blogs.com/culture/des-lectures-industrielles/) ou encore avec ceux sur le capitalisme cognitif (http://multitudes.samizdat.net/spip.php?page=rubrique&id_rubrique=937) et le « capitalisme linguistique » (http://fkaplan.wordpress.com/2011/09/07/google-et-le-capitalisme-linguistique/) sont également frappantes. Lorsque l’on connaît l’impact du « trading à haute fréquence » dans la crise mondiale que nous venons de traverser, on serait pour le moins mal avisés de tenir pour quantité négligeable l’impact de cette « documentation à haute fréquence » sur nos pratiques documentaires et plus globalement sur le mécanisme même de production d’information et de connaissance dans nos sociétés connectées. A fortiori lorsque l’on mesure que près de 50% du « traffic » (les visites sur tel ou tel site) sur le web provient non pas de « lecteurs » ou d’internautes en chair et en os, mais de programmes informatiques (http://www.journaldunet.com/ebusiness/le-net/trafic-web-robots-0312.shtml), principalement les « crawlers » (robots indexeurs) des moteurs de recherche.

Watching > Matching > Catching > ? Trading ?

  • Retour vers le futur. En jetant en rapide coup d’oeil dans le rétroviseur des procédures de classement et d’accès mises en place dans les régimes documentaires que constituent les outils de recherche, on s’aperçoit d’une évolution en 4 temps.
  • Watching. S’inspirant des premières approches classificatoires systématiques mises en place dans les bibliothèques, les annuaires de recherche abordèrent la question de la documentation comme une « vue sur le monde » (watching), faites de catégories et de sous-catégories en nombre limité, destinées à rendre compte et à organiser la diversité des informations recueillies et manuellement ajoutées auxdites catégories.
  • Matching. Avec l’arrivée de Google et de son algorithme Pagerank directement inspiré des travaux de Garfield sur la bibliométrie mais reposant sur un corpus à la fois hétérogène et en constante évolution, l’approche documentaire devint celle du « matching », le renvoi d’un ou plusieurs résultats correspondant (to match) à une requête donnée, la documentation étant alors perçue comme la restitution du croisement d’externalités répondant à une infinité de termes possibles.
  • Catching. Les évolutions que j’ai précédemment décrites instancient aujourd’hui l’activité documentaire sur le web avant tout comme une activité de captation (to catch). Captation en temps-réel jouant sur l’indexation et la personnalisation des résultats, mais principalement et essentiellement, captation de l’attention, au détriment de la justesse ou de la diversité des résultats.
  • Trading.  La dernière étape du processus reviendrait alors à faire de l’activité documentaire un pur exercice spéculatif contrôlé par des acteurs uniquement soucieux d’enrichir un portefeuille d’actions tenu par les régies publicitaires qu’ils mettent en place (Google Adwords) ou qu’ils alimentent (Facebook).

La question de la documentation de soi.

 Les primo-arrivants sur le web partagent souvent le même rite initiatique : celui de la création d’un compte Facebook. Commence alors, sur Facebook et ailleurs, dès l’âge de 13 ans et parfois même avant, un processus dont l’importance nous échappe à l’instant où nous le déclenchons : celui d’une entrée en documentation de soi. Une documentation qui sera ensuite permanente, problématique parce que sont entretenus des faux-semblants d’intimité ou de « privauté » là où le web, dans sa totalité comme en chacun de ses silos est essentiellement et intrinsèquement un espace public ou en toute dernière instance, semi-public. Aucune intimité n’y est possible. Et il nous y faut autant apprendre à dire qu’à ne pas dire ; apprendre à gérer l’oscillation permanente entre un story-telling facilité par les outils mis à notre disposition (que l’on regarde par exemple le lancement de la Timeline de Facebook), et un fact-checking qui des années plus tard peut nous remettre en face de nos inconséquences, de nos changements, de nos contradictions, de nos évolutions ; apprendre à s’exposer à la lisière de ces deux horizons dans lesquels un modèle de la linéarité de la narration de soi bascule vers une réticularité des narrations alternatives de soi ; inventer peut-être une hybridation supplémentaire, celle d’un « fact-telling » ou d’un « story-checking » permettant de réassurer et de réinvestir le mouvance de nos expressions identitaires numériques. Mais d’ores et déjà « je » est devenu un document comme les autres (http://archivesic.ccsd.cnrs.fr/sic_00377457/en ), pris dans les mêmes flux, soumis aux mêmes logiques algorithmiques, indexable dans ses comportements, ses expressions, ses actions et même ses intentions.

Objets documentaires numériques : intégrité menacée.

On n’achète plus aujourd’hui un produit (un livre par exemple), mais on achète l’accès à un service (la consultation d’un livre sur dans un environnement ou sur un teminal spécifique). C’est le modèle de l’allocation. Cette modification sera demain au coeur de l’ensemble des modes de consommation liés aux industries culturelles. Elle rend de plus en plus délicate et problématique (et parfois même impossible) la réutilisation dans le cadre pourtant nécessaire autant que légitime qui est celui de la copie privée. Il faut y être préparé et s’interroger sur les risques encourus.

Il faut également réapprendre à distinguer les logiques de la rediffusion de celles du partage. Le « partage » tel qu’il est présenté par Facebook quand vous cliquez sur une vidéo pour la faire circuler auprès de vos amis n’est qu’un faux-semblant. Le vrai partage présuppose une appropriation et une redistribution ciblée. L’essentiel de nos interactions connectées consiste davantage en une simple rediffusion (sur le modèle des mass-média) qu’en un partage authentique.

Pour permettre de sortir les objets documentaires de la masse des formats propriétaires qui les gangrènent, il faut réaffirmer l’importance de l’interopérabilité et enseigner les formats qui l’autorisent.

Apprendre également à sauvegarder et à se réapproprier des données, des documents que nous stockons « dans les nuages », c’est à dire sur les serveurs des sites hôtes (FlickR pour les images, YouTube pour les vidéos, etc …), avec une naïveté confondante qui nous fait évacuer d’un revers de manche la possibilité pourtant évidente que tout ou partie de ces sites vienne demain à disparaître, et avec eux les documents dont nous leur avons confié la garde (http://www.ecrans.fr/Le-jour-ou-YouTube-fermera,14081.html).

Des NTIC aux NTAD.

Le fil rouge de l’ensemble des ces bouleversements me semble pouvoir être résumé dans une formule : nous sommes passés des NTIC (nouvelles technologies de l’information et de la communication) aux NTAD (nouvelles technologies de l’attention et de la distraction). Un passage qu’augmente et que facilite en permanence la disparition progressice du clavier comme espace de saisie autant que d’appropriation, au profit d’un web pousse-bouton, dont les innombrables « like » et autres « +1″ ne sont que l’écume d’ingénieries relationnelles toujours plus fines, toujours plus insidieuses. Des ingénieries qui se présentent comme le seul recours au basculement d’une économie de la rareté à une économie de l’abondance. Mais des ingénieries qui, comme le montre Eli pariser dans « The filter bubble » sont mues par des « algorithmes de personnalisation du web nous poussent à consommer une diversité d’information toujours plus réduite » et qui accompagnent inexorablement le virage du web d’un média du texte vers un média de l’image.

OK. C’EST BIEN JOLI TOUT ÇA MAIS DONC ON FAIT QUOI ??

Le « pédagogue » désignait à l’époque l’esclave qui accompagnait, à pied, l’enfant sur le chemin de l’école, depuis chez lui jusqu’à l’école. Il nous faut peut-être accepter de rebrousser chemin, d’accepter que la « schola » ne soit plus, loin s’en faut, le topisme et le tropisme de la transmission. Je m’explique : c’est en prêtant de nouveau attention aux dynamiques de la (re)copie et à l’intégrité des documentations de soi que chacun pourra prendre la mesure des politiques algorithmiques qui nous gouvernent et décider de s’autoriser à sortir – s’il le souhaite – d’un internet des silos. Pour parcourir ce chemin il faudra soigneusement veiller à défendre, au coeur même de l’école, de la « schola », de cette enceinte au bout du chemin, le rôle et la place qu’y occuperont les notions d’open source, de logiciel libre, de licences creatives, et par dessus tout de « bien commun ».

Mais encore ?

Enseigner la publication (et le partage). Concrètement, il faudrait enseigner la publication et en faire l’axe central de la déclinaison de l’ensemble des savoirs et des connaissances. Avec la même importance et le même soin que l’on prend, dès le cours préparatoire, à enseigner la lecture et l’écriture. Enseigner la publication, apprendre à renseigner l’activité de publication dans son contexte, dans différents environnements.

Comprendre – il y a urgence – que l’impossibilité de maîtriser un « savoir publier », sera demain un obstacle et une inégalité aussi clivante que l’est aujourd’hui celle de la non-maîtrise de la lecture et de l’écriture, un nouvel analphabétisme numérique hélas déjà observable.

Car comme le rappelait Bernard Stiegler (http://www.rslnmag.fr/post/2011/3/15/bernard-stiegler_l-open-data-est_un-evenement-d-une-ampleur-comparable-a-l-apparition-de-l-alphabet_.aspx) :

« Reste que la démocratie est toujours liée à un processus de publication – c’est à dire de rendu public – qui rend possible un espace public : alphabet, imprimerie, audiovisuel, numérique. »

.

Olivier Ertzscheid

Partagez ce contenu !

    written by

    Veilleur / Digital curator & Directeur de publication de Veilleurs.info.
    Related Posts

    Leave a Reply

    Want to join the discussion?
    Feel free to contribute!

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

    Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

    © Copyright - VEillEurs.info???