Le printemps numérique - Jacques Folon - E-Book

Le printemps numérique E-Book

Jacques Folon

0,0

Beschreibung

Pour une meilleure compréhension du monde dans lequel nous vivons et une préparation aux défis des nouvelles technologies !

Comment ne pas constater aujourd’hui que des mutations technologiques successives et de plus en plus rapides (Internet, média sociaux, connexion permanente, smartphones, tablettes) ont radicalement transformé notre société occidentale avec des conséquences importantes en matière de comportements et d’interactions, dans la sphère privée, professionnelle ou académique ?

Notre société occidentale est en pleine mutation, face à des bouleversements technologiques dont les conséquences, pour nous tous, sont aussi importantes que celles apportées préalablement par l’écriture ou l’imprimerie. Les printemps arabes qui ont bouleversé le contexte politique de l’Afrique du Nord ne sont qu’un des éléments du printemps numérique qui modifie de fond en comble nos façons d’être et d’agir.

Le Web 2.0 avec ses acteurs comme Google et Wikipedia, les média sociaux comme Facebook ou Twitter, l’arrivée d’une génération connectée, les remises en cause de la propriété intellectuelle ou de la vie privée modifient déjà et continueront à bouleverser le fonctionnement de notre société, de ses entreprises, de son enseignement. Mais il ne faut pas être naïf ni trop idéaliser notre monde connecté, modifié par le printemps numérique. L’enfer du burn-out n’est jamais très loin du paradis de la connexion permanente.

Une analyse approfondie des bouleversements engendrés par le printemps numérique

A PROPOS DE L'AUTEUR

Jacques Folon exerce, comme Partner chez Edge Consulting, une activité de conseil de haut niveau dédiée essentiellement aux conséquences de l’arrivée des nouvelles technologies dans les organisations tant publiques que privées. Il est régulièrement sollicité comme expert par la Commission européenne, plusieurs ministères et institutions publiques belges. Son activité académique est également toute entière centrée sur les nouvelles technologies. Il est maître de conférences à l’Université de Liège, chargé de cours à l’ICHEC et intervient chaque année comme professeur invité dans plusieurs institutions universitaires en Belgique, en France et en Afrique. Il est régulièrement invité comme conférencier tant en Belgique qu’à l’étranger pour faire partager sa vision du monde en mutation face aux nouvelles technologies. Sa formation universitaire est éclectique : doctorat en sciences politiques et sociales, executive master en management public, licence en droit, licence en droit fiscal et agrégation. Il est l’auteur d’une dizaine d’ouvrages et de nombreux articles consacrés aux bouleversements amenés par Internet et les nouvelles technologies.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 685

Veröffentlichungsjahr: 2015

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



I. NOUS SOMMES AU XXIÈME SIÈCLE !

Il n’y a rien de plus difficile à planifier, de succès plus douteux, de plus difficile à gérer que la création d’un nouvel ordre des chosesMachiavel

Comment ne pas constater aujourd’hui que des mutations technologiques successives et de plus en plus rapides (Internet pour (presque) tous, Web 2.0, médias sociaux, connexion permanente en 3G ou 4G, Internet mobile, smartphones, tablettes) ont radicalement transformé notre société occidentale avec des conséquences importantes en matière de comportements et d’interactions, dans la sphère privée, professionnelle ou académique ? Les relations changent, les contacts entre individus évoluent, les « amis » Facebook sont nombreux, le capital social semble se modifier, on parle de Web 2.0, d’entreprise 2.0, d’université 2.0.

Le monde change et les comportements des individus connectés ont changé fondamentalement. « Internet permet une interaction qui va du niveau micro (une conversation bilatérale) à un niveau macro (créer un réseau social global). Les utilisateurs d’Internet montrent une volonté croissante de créer une identité digitale persistante qui permet une interaction sociale à long terme. Internet permet une communication à plusieurs niveaux : synchrone ou asynchrone, anonyme ou authentifiée, texte ou multimédia, individuelle ou en groupe, mobile ou statique. Les utilisateurs d’Internet passent d’un mode à l’autre, parfois même durant la même conversation. Internet peut fonctionner comme un canal multimodal, ouvert en permanence, pour les contacts sociaux et la connectivité1 ».

N’oublions pas, à l’ère des médias sociaux, que l’origine du mot Internet est la contraction d’interconnected networks (réseaux interconnectés), et que le mot fut créé à une époque ou la raison d’être de la création d’Arpanet, le prédécesseur d’Internet, était de permettre une interconnexion optimale en cas de guerre et d’indisponibilité éventuelle, du fait de destructions, de certains centres serveurs d’informations centralisés.

Cette notion d’interconnexion est fondamentale. « L’interconnexion des humains va bien plus loin que le simple fait d’utiliser des outils de communication. Avec un téléphone, vous établissez un lien ponctuel qui durera le temps d’un appel téléphonique. Dans les réseaux sociaux, ce lien est permanent. Vous pouvez désormais avoir des nouvelles de votre réseau, vous enquérir de l’actualité de vos connaissances sans même avoir à établir un lien direct avec eux. Tout porte à croire que l’interconnexion est plus puissante que le concept de communication : temps réel et lien permanent sont les deux nouvelles dimensions de la communication interpersonnelle, deux nouveaux leviers qui, potentiellement, sont sources de progrès et d’épanouissement. D’une certaine façon, l’interconnexion des humains que permet l’Internet inaugure un nouveau modèle de civilisation, dans lequel chacun contribue, partage, diffuse de l’information, participant ainsi à l’avènement d’une intelligence collective2 ».

Nous baignons aujourd’hui dans un certain enthousiasme quant à l’évolution du monde du fait de l’arrivée des nouvelles technologies. Mais, « toutes les innovations techniques en communication ont suscité des discours messianiques au fil du temps, ces derniers contribuant au déploiement d’une offre d’outils techniques et de réseaux ayant une utilité relativement indéterminée au départ3 ». Certains, pourtant, résistent au discours dominant et sont assez critiques face aux nouvelles technologies, créatrices, selon eux, de burn-out de stress, de réduction de personnel et de délocalisations sauvages. Il est clair qu’ils n’ont pas tout-à-fait tort et que la vérité est sans doute médiane.

Il est néanmoins incontestable que de nombreuses innovations sont présentes et de nouvelles arrivent chaque jour. Le monde change et les institutions comme l’université et l’entreprise ne pourront que changer, c’est devenu inéluctable, et c’est ce que je vais tenter de démontrer. La société de papa, l’université de papa, l’entreprise de papa sont mortes ou en train de mourir. Mais, et c’est probablement un de leurs grands problèmes pour évoluer, ces institutions n’ont pas encore complètement perçu la fin d’un certain modèle de fonctionnement qui n’est plus en phase avec le monde connecté d’aujourd’hui.

Mais gardons-nous d’un optimisme béat, le monde vers lequel nous nous dirigeons volontairement ou non, n’est pas, et de loin, le paradis sur terre. L’enfer du burn-out n’est jamais loin du paradis de la connexion permanente.

Nous sommes tous aujourd’hui confrontés en permanence à une surabondance d’informations4 qui soit nous est adressée directement sous forme électronique, soit est à notre disposition sur Internet. Ce flux d’informations, croissant sans cesse, est parfois appelé « infobésité », « information overload5 », « interruption overload », ou même « pollution par information » mais aussi Big Data, ce qui pour certains est un nouvel Eldorado. Nous sommes également soumis à des interruptions permanentes dues aux bruits, rappels, vibreurs que nous mettons en place pour ne pas manquer l’arrivée d’un email, d’un SMS, d’une communication sur Facebook, d’un Tweet, sans compter que souvent la même information nous arrive, quasi simulténément par plusieurs canaux.

J’espère d’ailleurs que le lecteur aura la possibilité de lire ce texte sans être trop interrompu par les nombreuses perturbations qui ne manqueront pas de le distraire, et que l’intérêt du livre lui permettra de ne pas l’abandonner trop souvent. Et c’est déjà un redoutable défi.

Le XXIème siècle semble donc être un nouvel univers : de nouvelles technologies apparaissent (le Cloud Computing, la géolocalisation,…), tout comme de nouveaux appareils intégrant des fonctions de plus en plus nombreuses (smartphones, tablettes), de nouveaux comportements de travail (connexions permanentes, télétravail), de nouvelles maladies professionnelles (burn-out, infobésité).

Le Web 2.0, caractérisé par l’interaction entre les internautes, a permis une évolution des processus de travail, de recherche, en créant un champ libre à la co-création de valeur, à la recherche commune, à la gestion et au partage des connaissances. Le développement du Web social, et des médias sociaux en particulier a induit des changements importants et l’apparition d’une véritable société en réseaux.

Simultanément une nouvelle génération, la génération digitale ou la génération Y, a vu le jour. Cette génération est composée d’individus qui sont nés après l’arrivée d’internet et pour laquelle les nouveaux outils de communication ne sont pas une nouvelle technologie mais des outils qu’ils maîtrisent ou, en réalité, qu’ils croient maîtriser. Comme le disait E. Schmidt, président de Google, « la technologie c’est ce qui a été inventé après ma naissance ». Les nombreuses publications consacrées à cette génération, passionnantes à de multiples points de vue, semblent, souvent se limiter à opposer de façon manichéenne la génération Y à ses prédécesseurs, sans aller au-delà de cette confrontation. D’autres études s’intéressent aux comportements de cette génération face aux nouvelles technologies, sans vérifier si ces nouveaux comportements n’ont pas été aussi adoptés par leurs prédécesseurs. Et force est de constater que tout le monde évolue en même temps, parfois à des vitesses différentes face aux coups de butoir des avancées technologiques.

Il m’a toujours semblé, tout comme certains auteurs et recherches récentes sur lesquels je reviendrai, que l’analyse de cette génération Y semblait un peu réductrice. En effet, les évolutions sociétales ne sont pas le seul fait des individus mais bien plus des techniques qui induisent des comportements nouveaux, et ce quelles que soient les générations, même si une certaine résistance au changement est parfois perceptible chez certains parmi les plus anciens.

Un autre élément mis à mal par le contexte technologique est une des bases de notre société culturelle occidentale contemporaine : la propriété intellectuelle qui a permis depuis le XXVIIIème le développement de la culture, de la littérature, de la musique, en permettant aux auteurs d’être rémunérés du fait de l’utilisation de leurs œuvres, rémunération « légale » qui remplaça les mécènes qui avaient fait vivre les auteurs depuis l’Antiquité. Mais depuis l’arrivée de la digitalisation, et encore plus depuis le Web 2.0 et les médias sociaux, la propriété intellectuelle, et en particulier le droit d’auteur et les droits voisins, sont violemment remis en cause et de nouvelles formes de gestion des créations apparaissent.

Tenant compte du contexte qui précède, j’ai été amené à constater que l’Université et les entreprises, deux mondes que je fréquente professionnellement depuis de longues années sont confrontés à quatre phénomènes importants, récents et simultanés, qui ont généré une littérature scientifique et journalistique importante:

le Web 2.0 avec son univers de partage, de collaboration intensive, d’intelligence collective modifie nombre de comportements. A titre d’exemple : Wikipédia, un bel exemple d’intelligence collective qui selon certains semble avoir remplacé l’encyclopédie;les médias sociaux qui sont devenus incontournables; les chiffres les concernant donnent le vertige, de nouveaux services apparaissent en permanence, utilisant notamment la géolocalisation;le comportement de la génération qui, la première, est née dans un univers ou l’ordinateur et Internet sont rois : la génération Y, souvent positionnée comme la source de tous les maux. Pas un jour ne se passe sans que des articles ne soient publiés concernant la génération Y. De nouveaux articles scientifiques apparaissent chaque semaine dans Google Scholar, sans compter la presse quotidienne et les magazines;La remise en cause de la propriété intellectuelle par l’arrivée du Web 2.0, la simplicité du copier-coller et l’indifférence des internautes, en particulier des jeunes, remet en cause tout le pan de l’économie lié aux droits d’auteur et à la propriété intellectuelle. Et le poids économique du secteur culturel n’est pas à négliger.

Ces quatre phénomènes ont entraîné des bouleversements structurels, des changements d’attitude qui ont profondément modifié la société occidentale et qui auront pour conséquences des modifications profondes des entreprises et des universités. Ces changements sociétaux sont tellement essentiels que les évolutions des entreprises et des universités sont inéluctables. Elles ont d’ailleurs déjà commencé à changer, même si une classique résistance au changement se fait sentir parfois de la part des personnes ayant entre les mains, pour quelque temps encore, les leviers de commande.

Ce livre, qui suit une thèse de doctorat soutenue en mars 2014 sur le même sujet, est donc une analyse de ces quatre bouleversements sociétaux, puis de la façon dont universités et entreprises les ont subis dans un premier temps, et pourquoi ces évolutions rendent inéluctables de profondes modifications au sein de ces institutions. J’analyse leurs implications principalement dans ces deux univers dans lesquels j’évolue et au sein desquels j’ai analysé les mutations dues à ces changements non seulement par une étude de la littérature, mais aussi du fait de nombreuses recherches-actions sur le terrain. Ces deux terrains d’études sont l’Université d’une part (grâce à mon activité académique et aux contacts avec de nombreux collègues) et l’entreprise publique ou privée d’autre part (du fait de mon activité de consultant dédié à l’implémentation des nouvelles technologies depuis de longues années).

Ces deux univers ont subi de nombreuses évolutions depuis le nouveau millénaire. A l’université, le fait qu’aujourd’hui la quasi totalité des informations sont disponibles sur Internet en temps réel entraîne une remise en question de certains enseignants confrontés à une adaptation du modèle savant-ignorant vers la co-construction de savoirs, la curation et les classes inversées. Mais ce modèle induit une capacité de remise en question importante qui ne se fait pas sans douleurs. En entreprise le monde change aussi : l’intelligence collective, la gestion des connaissances (knowledge management), les réseaux sociaux d’entreprise, l’augmentation, du fait des réseaux, des relations horizontales au-delà des départements et des initiatives de communication bottom-up, modifient l’importance de la hiérarchie et la façon de travailler avec ici aussi des résistances au changement, et pas seulement parmi les représentants des générations plus anciennes.

Afin de fixer le cadre, les quatre phénomènes seront analysés en priorité en ce compris leurs évolutions récentes. Enfin, je passerai en revue de façon systématique les conséquences qu’ont eues ces phénomènes à l’université et en entreprise, en me basant sur une analyse de la littérature et des retours d’expériences réalisées.

En conclusion, je tenterai de démontrer le caractère inéluctable des changements qui devront se mettre en place tant en entreprise qu’à l’Université, face à un changement structurel aussi profond du monde dans lequel nous vivons, que furent ceux de l’arrivée de l’écriture ou de l’imprimerie.

1     Dwyer, C. et al., Understanding development and usage of social networking sites: the social software performance model, Proceedings of the 41st Hawaii International Conference on System Sciences - 2008, en ligne : http://scholar.google.be/scholar?cluster=4206266584541024714&hl=fr&as_sdt=0&as_vis=1, page consultée le 23 janvier 2010 - traduction de l’auteur

2     Smati, R., Eloge de la vitesse: la revanche de la génération texto, Editions d’organisation, 2011, p.56.

3     Georges, E., Dépasser l’opposition technologisme/sociologisme dans l’analyse des rapports technologie/société ?, in Actes des travaux du comité de recherche « Sociologie de la communication » Colloque AISLF Namur, 19 au 20 mai 2010, p.9.

4     Debély J., et al. Rapport d’enquête : sondage Infobésité : Cahier de la haute école de gestion de Genève : N° HES-SO/HEG-GE/C--06/10/1--CH 2006, en ligne : http://doc.rero.ch/lm.php?url=1000,44,9,20061117113217-KT/Fragniere_cahier_recherche_10.pdf page consultée le 13 novembre 2011.

5     Terme qui apparut pour la première fois dans le choc du futur d’Alvin Toffler, publié en 1970.

II. QUATRE CHANGEMENTS RÉCENTS INITIATEURS DE BOULEVERSEMENTS STRUCTURELS

Je m’intéresse à l’avenir, Car c’est là que j’ai décidé de passer le reste de mes joursW. Allen

Je vais analyser successivement quatre changements majeurs qu’ont connus et que connaissent encore, non seulement les entreprises, les organismes publics et les universités, mais plus globalement la société toute entière, ces dernières années et qui ont été l’objet de nombreuses recherches, à savoir :

l’arrivée du Web 2.0;les médias sociaux;la génération Y;la remise en cause de la propriété intellectuelle.

Ces changements ont apporté de profondes modifications sociétales et ce avec des conséquences dans de nombreux secteurs. « Le développement des réseaux socionumériques met aujourd’hui lourdement à l’épreuve l’ensemble de l’économie tout autant que les capacités d’interventions des pouvoirs publics. Sous l’effet d’internet et des technologies de l’information et de la communication, l’environnement des activités sociales et économiques connaît des mutations profondes et continues qui rendent les mutations en cours difficiles à appréhender et le déploiement de stratégies industrielles malaisées à élaborer. Par leur caractère modulable et leurs fortes capacités d’appropriation, les technologies de l’information et de la communication se renouvellent très rapidement et remettent brutalement en cause les structures compétitives des marchés sans que les acteurs économiques, ni la puissance publique d’ailleurs, ne disposent toujours des moyens pour penser et anticiper de telles transformations6 ».

Ces changements sont tellement rapides que les responsables aux commandes des organisations n’ont désormais plus le temps de prendre du recul.

Le responsable informatique d’une grande entreprise me disaitencore récemment face aux demandes de ses collaborateurs de pouvoir se connecter de partout et 24 heures sur 24 aux données et applications de l’entreprise : « Pour la première fois de ma carrière, les évolutions de la gestion informatique et de la sécurité des données évoluent tellement vite que nous manquons cruellement de recul. A peine le Cloud computing est-il apparu qu’il fallait en analyser les risques et opportunités. Avant même d’avoir analysé en profondeur cette évolution, la demande des collaborateurs de l’utiliser avec leurs propres outils connectés, le Bring Your Own Device, qui peut se traduire par « amener vos propres outils », est sur la table.7 »

Le changement est aujourd’hui permanent. Ma pratique professionnelle de consultant, tout comme mes activités académiques me permettent de constater que les organisations sont confrontées à des remises en questions permanentes du fait des évolutions de comportement de leurs collaborateurs, de leurs clients, de leurs concurrents et de toutes les acteurs économiques, sociaux et culturels. Des activités, des entreprises même, disparaissent. Pensons aux magasins de produits de loisirs dont les supports désormais dématérialisés comme la musique, les films, les jeux vidéo sont désormais vendus en ligne par d’autres acteurs. Le dépôt de bilan de Virgin Mégastore8 qui n’a pas résisté à la montée en puissance des achats en ligne en est un malheureux exemple, alors que son enseigne trônait fièrement au milieu des Champs Elysées depuis le siècle passé.

Par contre, de nouveaux métiers s’introduisent, presque de force et par obligation en entreprise et même à l’université, comme ceux de la veille et l’intelligence économique, qui ont pour mission de suivre les informations publiées sur Internet qui peuvent concerner l’organisation. Des community managers, métier inexistant il y 10 ans, sont désormais engagés et chargés de gérer et animer tant les « communautés » qui suivent la marque ou l’entreprise que les réseaux sociaux internes à l’entreprise, installés pour utiliser l’intelligence collective, le partage des connaissances et la force des réseaux au sein même de l’organisation.

De nouvelles formations voient donc le jour à la suite de l’émergence de ces nouveaux métiers. A titre d’exemple, en 2009 je créais au sein du département formation continue9 d’une école de commerce bruxelloise10 une formation en Web 2.0 et médias sociaux dédiée aux cadres et dirigeants d’entreprise. Durant la première année de cette formation, le community management avait été abordé par un spécialiste, David Hachez, en une séance de trois heures sur un total de 40 séances. Un an plus tard le community management devenait une formation à part entière en 6 journées complètes.

La caractéristique générales des formations en médias sociaux et Web 2.0 est d’ailleurs que, chaque année, à peu près un tiers du programme change en fonction des évolutions des technologies et applications possibles, que ce soit en marketing, droit, management, ou même ressources humaines. Mais je dois constater que, malgré les formations mettant en avant ces nouveaux métiers, dans bon nombre d’universités et même d’entreprises commerciales, sans parler du secteur public, l’engagement d’un community manager qui pourrait gérer la « e-reputation » et donc le suivi des internautes qui parlent de l’organisation sur les médias sociaux n’est pas encore à l’ordre du jour. La discussion, trop classique, avec certains responsables d’entreprise et de ministères est souvent liée à leur volonté de ne pas être présent sur les médias sociaux. Ce n’est qu’en leur montrant les, souvent nombreuses, discussions en ligne et au sein des médias sociaux tant au sujet de leur institution que de leurs produits que la question se pose alors de savoir quoi faire et comment participer à la conversation que leurs clients, concurrents et prospects ont déjà souvent commencée sans eux.

Les entreprises, les pouvoirs publics, les universités semblent souvent désarmés face à ces changements. Mais leurs collaborateurs aussi sont pafois dépassés. « Les études révèlent aussi des écarts importants dans la maîtrise de l’outil. Si une minorité d’usagers s’investit pleinement dans la découverte et la pleine exploitation du potentiel des TIC (internautes confirmés, par exemple), voire dans le dialogue avec le système machine (informaticiens amateurs), la majorité des usagers se contente le plus souvent d’une maîtrise partielle des fonctionnalités (recours à un nombre très réduit des options offertes par les logiciels, les appareils téléphoniques numériques…).11 ».

Cette question de la compétence est souvent au cœur des incompréhensions et des confusions liées aux usages des technologies de communication. En effet plusieurs fantasmes circulent : les jeunes sont « naturellement » compétents, la prise en main des nouveaux outils et applications est simple, chacun est capable de trouver facilement l’information qu’il cherche sur Internet. Néamoins les chercheurs ont démontré que la compétence n’est pas innée12 et que la majorité des utilisateurs ne connaissent que très imparfaitement les possibilités de leurs outils. Des formations sont donc nécessaires, tant en entreprise qu’au sein des universités pour améliorer la qualité des usages. Si la majorité des personnes actives considèrent que les nouvelles technologies ont apporté un changement dans leur travail, ce changement doit être accompagné, notamment par des formations.

Je n’ai pu que constater au niveau des Universités et Hautes écoles au sein desquelles je donne cours, et ce tant en Belgique qu’en France ou en Afrique, que la formation, tant du personnel enseignant que des étudiants, est quasi inexistante en ce qui concerne les nouvelles technologies et leurs utilisations.

Pour la formation des étudiants, lorsque certains enseignants proposent de mettre en place un cours obligatoire de recherche d’information, ou de respect de la propriété intellectuelle, la réponse habituelle de la hiérarchie fut souvent de considérer que ces éléments auraient dû être inclus dans les cours de méthodologie scientifique donnés durant les deux premières années. De plus, le fantasme de la génération Y, qui fait croire que les étudiants seraient naturellement doués pour utiliser les nouvelles technologies, est un autre frein à la mise en place de formations spécifiques pour les étudiants dédiées à l’optimisation de l’usage des nouveaux outils, dont on constate qu’ils les maîtrisent mal, mais j’y reviendrai plus tard.

Quant à la formation des enseignants aux nouveaux outils et techniques, je dois malheureusement constater que si certaines initiatives sont prises, elles sont limitées à certains outils spécifiques, du type Zotero13, mais sans mettre en place une véritable information ou formation quant aux nouveaux outils de formation, de curation ou d’intelligence collective. Quelques initiatives existent, entre collègues, au sein des silos que sont encore les facultés et UFR14. Mais force est de constater que certains n’osent pas la demander, sous peine de passer pour des « has been », et que d’autres se contentent d’une connaissance basique des outils sans savoir qu’une connaissance plus approfondie pourrait leur faciliter le métier d’enseignant, voire évoluer vers un nouveau métier de curateur d’information.

Le Web 2.0 a donc bien bouleversé de fond en comble la circulation des informations et il n’est pas certain que nous ayons déjà perçu l’entièreté de ce bouleversement que l’on peut situer au même niveau que l’arrivée de l’écriture ou de l’imprimerie. Les médias sociaux ont modifié les rapports entre les individus, et l’arrivée des réseaux sociaux d’entreprise a permis à un nouveau type d’organisation de voir le jour. La génération Y a été l’objet d’innombrables articles tendant à démontrer que les bouleversements sociétaux lui étaient imputables, ce dont j’essayerai de démontrer plus loin le caractère erroné. Enfin, l’arrivée des nouveaux acteurs du Web 2.0 avec son univers de partage et d’intelligence collective, les médias sociaux qui ont généralisé le copier-coller, et enfin la génération Y, et ses contemporains, qui n’ont plus aucun respect de la propriété intellectuelle, me permettront d’évoquer la remise en cause du droit d’auteur aujourd’hui.

Je vais donc analyser ces quatre phénomènes, puis je me pencherai sur les chocs pour les universités et les entreprises qu’ont entraînés et qu’entraînent encore ces bouleversements.

Commençons par le concept le plus général : le Web 2.0 qui a d’ailleurs accompagné et permis l’apparition ou le développement des trois autres.

6     Benghozi, P.-J., Economie numérique et industries du contenu: un nouveau paradigme pour les réseaux, Hermès n°59, 2011, p.31.

7     Les réactions de contacts que j’ai eu la chance de rencontrer soit pour des missions professionnells soit dans le cadre de cours universitaires, soit en rédigeant ce livre seront présentés en gras pour la facilité du lecteur.

8     Annoncé le 3 janvier 2013

9     Ichec Entreprises

10   Ichec, Brussels Management School

11   Jouët, J., Retour critique sur la sociologie des usages, in: Réseaux, 2000, volume 18 n°100. pp. 503.

12   J’y reviendrai dans le chapitre consacré à la génération Y

13   Outil de gestion des sources et références dans le cadre de travaux scientifiques

14   Unité de formation et de recherche

A. LE WEB 2.0

Nous sommes tel Jean Cadoret dans sa garrigue : la source du numérique du savoir coule sous nos pieds;Notre tâche est de la découvrir et de l’exploiter.Selon que nous y parviendrons ou que nous échouerons, nous serons demain les maîtres ou les esclaves du numérique.B. Sillard15

Les différentes plateformes du Web 2.0, que je vais tenter de définir ci-dessous, permettent aux internautes tant d’aller à la recherche d’informations, présentes en grand nombre sur Internet, que de devenir contributeur, que de poster leurs avis, commentaires, prises de positions et ce pour participer à une culture de convergence16, une culture participative17, un « produsage18 » au sein duquel les différents contenus sont proposés, adaptés, corrigés, amplifiés, commentés par les internautes eux-mêmes.

Figure 1 # Le Web 2.019

L’image reprise ci-dessus reprend bien les principales caractéristiques du Web 2.0 et surtout ses conséquences pour des secteurs aussi différents que la réglementation, la gestion de son identité, et ce tant pour les individus que pour les organisations, l’évolution des bibliothèques, des média, du monde de la publicité et même de la démocratie. Le Web 2.0 lui-même est basé sur Internet comme plateforme, utilisant l’intelligence collective, mettant en avant tant les données que les fonctionnalités, dans un processus permanent d’amélioration proposant de nouvelles expériences aux internautes.

Mais ce qui caractérise surtout le Web 2.0 est l’ensemble des bouleversements dus à son arrivée :

sur la législation (je reviendrai sur les modifications de la propriété intellectuelle),la gestion de l’identité (et donc la difficile question de la vie privée que j’évoquerai dans le cadre des médias sociaux),l’idée de la bibliothèque universelle (que j’évoquerai dans le chapitre consacré à la remise en cause de la propriété intellectuelle),les média et notamment les médias sociaux (analysés ci-dessous),mais aussi, ce que je n’évoquerai que très peu, les sujets justifiant un ouvrage à eux seuls,

 les modifications en matière de publicité (ciblage précis des internautes)

 les conséquences pour la démocratie (les printemps arabes par exemple).

Indépendamment des conséquences de l’arrivée du Web 2.0, tentons de le définir.

1. TENTATIVE DE DÉFINITION DU WEB 2.0

Le Web nouveau a fait l’objet de diverses dénominations, dont celle de Web Social englobant Web 2.0 et Médias sociaux. Le « 2.0 » est aujourd’hui mis à toutes les sauces et fait l’objet d’un effet de mode assez persistant. « L’étiquette « 2.0 » a été accolée à quasiment tous les domaines de la vie en société : politique 2.0, culture 2.0, entreprise 2.0, ville 2.0…20 », sans oublier l’université 2.0. Les entreprises ont adopté les techniques du Web 2.0 tels que les wiki et même les réseaux sociaux utilisés en interne et dénommés « réseaux sociaux d’entreprise », proposés par des plateformes telles que Yammer21 ou Knowledge Plaza22.

Si le concept de Web 2.0 a été inventé par Tim O’Reilly, ce dernier aussi créé la notion de « Web2 » mais ce second concept a eu nettement moins de succès et est tombé dans l’oubli. Le concept de Web 2.0 fait aujourd’hui l’objet de discours majoritairement positifs et enthousiastes, même s’il y a évidemment des discours plus critiques. Je m’efforcerai bien entendu de rester le plus objectif possible en envisageant tant ses avantages que ses critiques.

Quelle définition pouvons nous tenter de donner du Web 2.0 ou de ses synonymes ? Regardons d’abord quelques tentatives de définition de ce concept. Le Web 2.0 :

« replace l’internaute au centre des usages via le partage et la collaboration entre individus23 »;« désigne d’une part l’émergence de nouveaux dispositifs numériques indissociables de l’évolution d’internet (regroupés sous le vocable Web 2.0) et, d’autre part, le développement d’usages originaux médiatisés par ces dispositifs et centrés sur la participation active des usagers dans la production et la diffusion des contenus circulant sur la toile24 »;« est la mise en œuvre du web tel que l’avait conçu son créateur Tim Berners Lee, c’est-à-dire un moyen de naviguer dans des documents, associé à la possibilité d’en publier soi-même facilement25 »;« consiste à rendre les utilisateurs actifs, et donc à démultiplier les effets de réseaux à travers la mise en place de ce qu’il est convenu d’appeler une architecture de la participation26 »;c’est l’intelligence collective, c’est-à-dire « la mise en valeur et la relance mutuelle des singularités27 »;« est une réorientation du Web qui promeut une interaction sans frontières, une collaboration et une participation des individus. Il est caractérisé par l’émergence d’un nombre important de contenus générés par un collectif d’internautes. Il permet un effet de réseau et le développement de la longue queue28. Les technologies du Web 2.0 transforment le Web en une plateforme de contact pour tous les appareils connectés. Elles permettent la création de services Web et d’applications, construits sur des modèles légers pouvant être utilisés intuitivement.29 »;« ce sont les procédés par lesquels une connaissance peut émerger de la mise en relation des individus sur Internet, sous forme d’intelligence collective ou de production collaborative. (…) c’est par elle que Linux défie les systèmes d’exploitation propriétaires ou que Wikipedia remplace les encyclopédies traditionnelles30. »

La définition du Web 2.0 est donc centrée sur l’utilisateur qui est au milieu du dispositif et qui est devenu acteur autant que consommateur. L’interactivité entre les internautes en est la base même, les principes de l’intelligence collective et du social knowledge sont mis en marche de façon concrète et ce, même sans que les internautes en soient nécessairement conscients.

Le Web 2.0 c’est en réalité le partage, la mise en commun d’informations, la co-création. En raison de ce partage de la connaissance, le XXIème siècle sera différent de ses prédécesseurs. « Les échanges entre pairs et le travail collectif ne sont pas nés avec les nouvelles technologies, mais ils ont atteint une autre dimension grâce à elles31. » Le partage d’informations est facilité par le nombre croissant d’outils mis à disposition de la population mondiale. « Un des sommet Digiworld a permis d’observer un décuplement du parc mobile mondial, passé de 477 millions d’unités fin 1999 à près de 4,5 milliards au début 2010, et donc de prévoir, en moyenne, un terminal numérique de communication par habitant d’ici quelques années32 ». Cette prévision a été dépassée au début 2013 où, aux Etats-Unis, le nombre de terminaux mobiles a déjà dépassé le nombre d’habitants. Le succès du Web 2.0 est aussi lié au nombre, en augmentation croissante, de participants aux différentes plateformes existantes.

Le Web 2.0 a consacré le « consomm-acteur » comme la personne la plus importante de ces années du début du XXIème siècle. Le consommateur est devenu actif, car proposant des avis au sein des médias sociaux, au sujet des marques et des produits. Il est à l’origine de ce qui est appelé le « user generated content » (le contenu géré par les utilisateurs), ce qui constitue désormais la majorité des contenus publiés sur les plateformes de médias sociaux, le contenu résiduel étant de la publicité et les conditions générales d’utilisation de ces plateformes.

Figure 2 # Couverture de Time Magazine du 25 décembre 2006

Rappelons-nous qu’en 2007, la revue Time Magazine désignait « You », c’est à dire vous et moi, comme la « personne de l’année », après qu’une autre revue américaine Business 2.0 ait considéré le même « You » comme la personne qui importait le plus dans la nouvelle économie. Il est clair que si la compétence de ces différents « YOU » est variable, l’accès à la publication sur le Web est accessible à tous. Certains33 applaudissent d’ailleurs cet accès pour tous comme « la fin de la dictature des experts » et le retour à une version digitalisée du noble sauvage de Jean-Jacques Rousseau.

Le Web 2.0 se met en place dans un contexte d’accès potentiel à une quantité d’information hallucinante stockée sous forme numérique. En 2007 déjà, plus de 90 % de l’information archivée l’était sous forme numérique34. De plus, ce flot d’informations est accessible en un clic, mais sans aucun contrôle sur sa qualité, sa pertinence, sa véracité. De plus, la classification des informations n’est pas nécessairement celle que l’internaute aurait souhaité en fonction de ses modes de recherche et d’intérêt. Ce flot d’informations, comprenant d’innombrables données personnelles, est aussi souvent appelé le « big data ».

Le « big data » est une source inépuisable de données. « Chaque jour, nous générons 2,5 trillions d’octets de données. A tel point que 90 % des données dans le monde ont été créées au cours des deux dernières années seulement. Ces données proviennent de partout : de capteurs utilisés pour collecter les informations climatiques, de messages sur les sites de médias sociaux, d’images numériques et de vidéos publiées en ligne, d’enregistrements transactionnels d’achats en ligne et de signaux GPS de téléphones mobiles, pour ne citer que quelques sources35 ».

Mais ce qui est la caractéristique principale du Web 2.0 est la mise en commun de ces données, de ces connaissances : le « social knowledge », la sagesse des foules, l’intelligence collective, le savoir partagé, le « crowdsourcing », l’« open innovation ». La mise en commun de l’accès au « big data », va permettre d’amener un quatrième paradigme de la recherche scientifique36. « Si la science progressait (dans le passé) par la formulation d’hypothèses, suivies d’expériences servant à vérifier ou à infirmer ces hypothèses, demain, riches de cette avalanche de données et de notre nouvelle capacité à les traiter, nous allons pouvoir amener les machines à inventer elles-mêmes des rapprochements inédits, à trouver elles-mêmes des corrélations que nous aurions été incapables d’imaginer, ou même que l’intelligence humaine aurait eu du mal à embrasser, tant la combinaison de critères sera vaste et complexe. Autrement dit, l’humanité va franchir les limites de la connaissance37. »

Et n’oublions pas l’ouverture des données publiques, ce qui est dénommé l’« open data », qui va voir une partie importante des données publiques devenir accessibles et utilisables.

J’ai eu l’occasion, lors d’une mission que j’ai effectuée, de participer à la mise en place d’un datawarehouse, un « entrepôt de données » grâce auquel des recherches pointues, utilisant notamment des techniques de data mining, permettent des recherches sur l’identification de profils de fraudeurs et une meilleure lutte contre la fraude. Ces différentes techniques sont issues de technologies récentes, développées simultanément dans plusieurs pays, utilisant l’intelligence collective, fer de lance du Web 2.0., et surtout en analysant des milliers de données publiques détenues par les organismes publics.

L’utilisation efficace de ces données permettra des développements intéressants, de nouvelles activités et nécessitera évidemment la mise en place d’une veille notamment concurrentielle, que ce soit dans les entreprises, les organisations et même dans les universités, mises davantage en concurrence par la mondialisation et en Europe par le processus de Bologne qui facilite grandement les arrivées et départs d’étudiants en fin de cycle de Bac.

Une des caractéristiques du Web 2.0 est donc que les contenus mis en ligne peuvent être immédiatement vérifiés, adaptés, corrigés par des tiers. La philosophie des défenseurs du Web 2.0 est que ces multiples adaptations vont amener un contenu nécessairement plus valable, du fait de ces multiples corrections, une sorte de « peer review » permanent, mais où tout un chacun est un « pair ». Mais pour les critiques du Web 2.0, les contributeurs anonymes ne disposent pas nécessairement de la compétence des universitaires sélectionnés pour faire partie des comités de lecture de revues scientifiques prestigieuses. Et c’est ce manque de compétence qui est à la base d’une des principales critiques du Web 2.0 au sujet de laquelle je reviendrai plus tard.

Après cette tentative de définition du Web 2.0, il est temps de voir comment il a été adopté par ses innombrables utilisateurs.

2. L’ADOPTION DU WEB 2.0

Face à un phénomène nouveau, il faut se poser la question du phénomène de l’adoption du Web 2.0 et des médias sociaux, qui, comme toutes les innovations, a généré des comportements et attitudes variables dans le temps. Rogers38 a proposé, en 1962, un schéma de modélisation susceptible d’être appliqué à toute innovation (qu’il s’agisse d’un objet technique ou simplement d’une idée nouvelle) et qui a souvent été utilisé pour appréhender l’adoption du Web 2.0 et des médias sociaux. Il propose que, pour être tout d’abord essayée, une innovation technique doit répondre à plusieurs caractéristiques :

son avantage relatif, c’est-à-dire ce qui constitue une avancée par rapport aux idées précédentes, non seulement en termes de prix ou de bénéfices escomptés, mais aussi de prestige ou de distinction. Plus la perception de cet avantage relatif est importante, plus l’adoption sera rapide;sa compatibilité avec les valeurs existantes, les expériences et les besoins des « adopteurs » potentiels;sa complexité, la difficulté de la comprendre et de l’utiliser;la possibilité de l’essayer, de la tester à petite échelle;la possibilité que les résultats soient visibles par les autres.

Le Web social est un exemple intéressant de compatibilité avec ce modèle d’adoption des innovations, car il reprend chacune de ces caractéristiques. En effet :

il apporte clairement un avantage de communication par rapport aux communications moins interactives et plus limitées du mail ou des blogs;il correspond à un besoin de communication que des tentatives précédentes de sites telles « les copains d’avant », avaient identifié;son usage est tellement simple qu’il fut adopté et l’est encore par des enfants;Il peut être essayé immédiatement à petite dose avant de se lancer à s’ouvrir sur plus d’ « amis »;les résultats croisés sont visibles par les autres.

Dès qu’une innovation a été testée, Rogers39 identifie cinq phases successives nécessaires à son adoption :

la connaissance lorsque l’utilisateur apprend l’existence et les modalités de fonctionnement de l’innovation;la persuasion lorsque des opinions favorables commencent à être diffusées à propos de cette innovation;la décision de choisir ou non d’utiliser cette innovation;l’implémentation, lorsqu’un utilisateur commence à la mettre en pratique;la confirmation lorsqu’un utilisateur obtient une confirmation d’un tiers valorisant sa décision d’implémentation.

Ces cinq phases furent aussi et très rapidement adoptées par les utilisateurs des médias sociaux.

Comme la communication au sujet tant du Web 2.0, que des médias sociaux s’est faite sur Internet, en quelques clicks, cela a évidemment augmenté sa notoritété spontanée, la connaissance de ces nouveaux réseaux fut immédiate, la pression sociale fut importante. Il fallait y être, la décision et l’implémentation suivirent vite, et à grande échelle, et la confirmation est encore constante aujourd’hui, le taux d’usage se renforçant chaque jour, et ce sur de nouvelles plateformes proposant de nouveaux usages.

De leurs côtés, les usagers sont classés par Rogers40 en cinq profils types selon la façon dont ils se placent sur l’échelle temporelle de la diffusion :

Figure 3 # Courbe d’innovation de Rogers41

les innovateurs (innovators) sont des individus toujours à l’affût des dernières idées et innovations. Ils n’hésitent pas à se jeter à l’eau pour anticiper des apports positifs de l’innovation. Ils sont les trend-setters, ils lancent les modes. Rogers les évalue à 2,5 % de la population;les adoptants précoces (early adopters) s’intéressent avant tout le monde (hormis les innovateurs évidemment) aux nouveautés. Ils prennent eux aussi des risques dans la mesure où ils sont les premiers à adopter une innovation (13,5 % des utilisateurs);la majorité précoce (early majority) adopte l’innovation lorsque les avantages semblent démontrés. Il n’y a à ce moment plus beaucoup de risques à se lancer (34 % des utilisateurs);la majorité tardive (late majority) se compose de suiveurs qui deviennent actifs lorsque cela va de soi (34 %);les retardataires (laggards) (16 %) sont les plus lents à adopter l’innovation ou même la refusent.

Je ne peux que constater que le modèle de Rogers, parfaitement applicable à l’arrivée du Web 2.0 et des médias sociaux, suscite encore un grand enthousiasme et une littérature abondante. Le bémol du modèle de Rogers, qui fut critiqué42 à juste titre pour cet élément, est que, et ce fut le cas lors de l’apparition et du succès du Web 2.0, la technologie évolue au fur et à mesure de son adoption par les utilisateurs et donc le modèle adopté n’est pas stable. Rogers l’admit d’ailleurs postérieurement en signalant que « la réinvention n’est pas nécessairement mauvaise43 ».

Le modèle de Rogers fut également utilisé pour l’arrivée de l’Internet, quoique son adoption fut plus lente. Les premiers internautes montrèrent beaucoup d’enthousiasme à l’arrivée de ce nouveau média. Mais cet enthousiasme initial fut remis en cause postérieurement par les chercheurs mettant en avant la nouvelle complexité de ce monde digital ainsi que la fracture digitale qui séparait le monde entre ceux qui avaient la possibilité d’être connectés et les autres. En ce début de l’ère du Web 2.0 et de la nouvelle ère des médias sociaux, ces mêmes discours extrêmement enthousiastes se font entendre.

« Nous aurions pu croire qu’en conséquence les propos dithyrambiques auraient fini par s’estomper suite à cet apport considérable de connaissances qui a eu pour résultat, plus ou moins intentionnel, de favoriser le processus de démystification (de l’Internet), objectif des recherches en sciences humaines et sociales. Toutefois, les propos dithyrambiques sur le rôle du réseau notamment à des fins de renouveau des relations sociales ont fait leur retour sur le devant de la scène autour de ce qui est généralement appelé le « Web 2.0 » ou le « Web collaboratif » au cours de la première moitié des années 2000. Nous avons alors retrouvé plusieurs idées fortes parmi lesquelles la fin des frontières entre conception et utilisation, l’avènement de relations sociales plus horizontales, moins hiérarchiques, voire la remise en cause plus ou moins grande de nos systèmes économique et politique44. » Et il est vrai qu’aujourd’hui les propos et les articles au sujet du Web 2.0 et de ses usages débordent souvent de superlatifs, tant au niveau du nombre des utilisateurs, des contenus, des connexions et des conséquences, nécessairement positives, de l’adaptation du Web 2.0 par de plus en plus d’internautes.

Néanmoins, certains chercheurs découvrent des aspects moins positifs, résultant notamment d’attitudes pouvant sembler différentes entre la « génération digitale » et celle de ses aînés, ou plutôt, et j’y reviendrai, entre les individus ayant adopté ces nouveautés et ceux qui résistent. Des critiques surviennent au sujet de la perte du concept de vie privée, ou de la remise en cause de la propriété intellectuelle avec notamment le développement du plagiat comme source de base de réalisation des travaux universitaires.

En se penchant sur l’explosion démographique des utilisateurs de médias sociaux et du Web 2.0, comment ne pas penser à Hannah Arendt qui considérait que l’intrusion de l’intime dans la sphère publique constituait le moment du passage à la modernité45. Le Web 2.0 met en perspective les individus, les consommateurs qui n’hésitent plus à se dévoiler sur les différentes plateformes et permet donc la naissance d’une modernité réelle des comportements et des usages. L’adoption du Web 2.0 a aussi entraîné une évolution des comportements des sociétés commerciales qui sont forcées d’interagir plus avec leurs clients, qui sont passés de consommateurs passifs au rôle de consomm-acteurs partageant avec leurs pairs leurs avis sur produits et marques. Mais cette activité fait aussi évoluer les pouvoirs dictatoriaux qui face à ces possibilités de dialogues non contrôlés essaient tant bien que mal de forcer les opérateurs des plateformes à leur laisser une possibilité de contrôle, sinon de censure. N’oublions pas le rôle du Web 2.0 dans le cadre des « printemps arabes ».

Mais hormis ces aspects plutôt positifs, il existe donc bien entendu des critiques du Web 2.0, que je vais aborder avant d’aller plus loin.

3. LES CRITIQUES DU WEB 2.0

Un mensonge peut faire le tour du monde, avant que la vérité n’ait la chance d’enfiler ses bottesJ. Callaghan

Keen46 a résumé le Web 2.0 au théorème de Huxley, un biologiste du XIXème siècle : « si vous donnez à un nombre infini de singes, un nombre infini de machines à écrire47, certains singes finalement créeront un chef-d’œuvre, une pièce de Shakespeare, un dialogue de Platon ou un traité d’économie d’Adam Smith. (…) La technologie d’aujourd’hui a permis de donner ces machines à écrire à ces singes. La différence est que dans notre monde du Web 2.0, les machines à écrire ne sont plus des machines à écrire mais des ordinateurs personnels, et les singes ne sont plus des singes mais des internautes. Et au lieu de créer des chefs-d’œuvre, ces millions et millions de singes exubérants, dont beaucoup n’ont pas plus de talent artistique que nos cousins primates, créent un océan infini de médiocrité48 ».

Sa critique de Wikipedia, (considéré généralement comme l’exemple ultime de la réussite du Web 2.0) relayée par les défenseurs de la presse d’opinion et des encyclopédies classiques est encore plus cinglante : « l’aveugle guidant l’aveugle – d’infinis singes donnant d’infinies informations pour des lecteurs infinis, perpétuant le cycle de la désinformation et de l’ignorance49 ».

Mais il faut bien constater, pour tenter de rester objectif, que parfois une vénérable institution comme l’Oxford English Dictionary (qui se présente pourtant comme « le dictionnaire le plus digne de confiance au monde ») laisse passer une erreur que les défenseurs du Web 2.0 n’ont alors pas manqué de signaler et qui, selon eux, constitue un bel exemple de comparaison favorable au Web 2.0. En effet ce dictionnaire avait laissé durant de longues années se perpétuer l’erreur selon laquelle le siphon fonctionnait grâce à la pression atmosphérique, alors qu’il s’agissait de la gravité. Et bien entendu cette erreur n’apparaissait pas dans Wikipedia50, ce qui selon ses supporters démontrait sa supériorité sur les dictionnaires classiques.

Une autre critique qui apparaît souvent par rapport au Web 2.0 est le remplacement des experts, des critiques par des amateurs. « Nos gardiens culturels qui sont les critiques professionnels, les journalistes, les éditeurs, les musiciens, les réalisateurs de films et autres pourvoyeurs d’informations professionnelles sont remplacés, « désintermédiés », par des bloggeurs amateurs, des hackers, des réalisateurs de vidéo domestiques et des artistes locaux51 ».

Jaron Lanier a été également très critique envers le Web 2.0 qu’il considère comme un nouveau collectivisme en ligne, voire du « digital maoïsm52 », le collectivisme devenant la panacée et donc étant par essence meilleur que ce que des experts peuvent proposer. « La beauté de l’Internet c’est qu’il connecte les gens. La valeur se trouve dans les autres. Si nous commençons à croire que l’Internet lui-même est une entité qui a quelque chose à dire, nous dévaluons ces autres et nous nous réduisons au rang d’idiots53 ».

N. Carr54, auteur du célèbre essai « internet nous rend-il bête ? », critique aussi le Web 2.0, et même si son texte date de 2005, ses arguments ont encore du poids aujourd’hui, notamment en ce qui concerne Wikipedia. Il rappelle que « dès le départ le World Wide Web a été un vecteur pour des désirs quasi-religieux. Et pourquoi pas ? Pour ceux qui cherchent à transcender le monde physique, le Web peut ressembler à une terre promise toute faite. […] Mais si l’on regarde le Web en terme religieux, on ne peut plus le voir objectivement. […] Dès qu’on lit quelque chose sur le Web 2.0, vous trouverez inévitablement des textes positifs à propos de Wikipedia, comme une glorieuse manifestation de l’âge de la participation. […] En théorie Wikipedia est une belle réalisation, ça doit être une belle réalisation si le Web a pour but de nous amener à un plus haut degré de conscience. En réalité, cependant, Wikipedia n’est pas bon du tout.

C’est certainement utile, je le consulte d’ailleurs régulièrement pour vérifier rapidement un sujet. Mais à un niveau factuel, ce n’est pas fiable, et la rédaction parfois faible. Je ne voudrais pas en dépendre comme source, et je ne le recommanderais certainement pas à un étudiant devant rédiger un travail de recherche. »

Certaines des critiques de Wikipedia sont une des conséquences de l’égalité de traitement entre tous les internautes, avec parfois des incohérences dues à cette égalité institutionnalisée. « Le Dr. William Connolley, un spécialiste de la modélisation du climat à la British Atlantic Survey à Cambridge et un expert du réchauffement climatique, avec de nombreuses publications scientifiques à son crédit, se trouva confronté à un tête-à-tête avec un éditeur agressif de Wikipedia au sujet du texte concernant le réchauffement climatique, sur lequel, après avoir tenté de corriger des erreurs qu’il avait constatées, il fut accusé de vouloir « pousser de force son point de vue en enlevant systématiquement tout point de vue qui n’était pas le sien ». Wikipedia a donc sanctionné le Dr. Connelley en le limitant à une entrée par jour sur le site. Le comité d’arbitrage de Wikipedia a donc mis sur le même plan un expert mondialement reconnu et un quidam qui aurait pu être un employé d’une compagnie pétrolière55 ».

Une autre évolution, et souvent une autre critique du Web 2.0 fut l’apparition de ce que l’on a appelé le journalisme citoyen. En effet, bon nombre de bloggeurs se considèrent désormais comme des journalistes. Une étude56 américaine a d’ailleurs montré que 34 % des bloggeurs américains considèrent que leur travail est une forme de journalisme. Mais un journaliste professionnel a généralement suivi des études préparatoires à ce métier, une formation au sein de média professionnels, il est supposé vérifier ses sources, il est soumis à une déontologie, et la loi lui permet même, dans les pays démocratiques, la protection de ses sources. Ces caractéristiques ne sont pas applicables aux bloggeurs qui publient des textes en ligne sans que le public ne sache quelle fiabilité accorder à ces publications.

Nous nous retrouvons donc ici devant la question de la confiance face aux informations postées sur le Web. Cette notion de confiance est une des pierres angulaires des communautés virtuelles et de la crédibilité du Web 2.0. Il est vrai que la facilité de poster des informations fausses permet facilement de propager des erreurs jusqu’au moment où un autre internaute les corrige. Le pire est la professionnalisation de la désinformation. Comment être certain que, sur des sites reprenant les commentaires de voyageurs concernant des hôtels ou des restaurants, les commentaires positifs ne sont pas postés par le propriétaire, et les commentaires négatifs postés par un concurrent ? A titre d’exemple de ces pratiques de désinformation organisée, un accord a été annoncé en septembre 2013, par lequel les autorités judiciaires de l’état de New York ont condamné 19 entreprises qui publiaient de faux commentaires positifs concernant leurs services à un total de 350.000$ d’amende et à cesser ces pratiques. « Avec de plus en plus d’informations en ligne non éditées, non vérifiées, et sans substances, nous n’avons donc plus d’autre choix que tout lire avec un œil critique57 ».

J’avais, dans la cadre d’une conférence que je donnais en 2010, devant l’association des responsables de communication du secteur public belge, voulu montrer la relative faiblesse de Wikipedia comme source d’information unique et son instabilité potentielle. J’avais donc modifié en deux minutes et quelques clics la page consacrée à la Belgique, en la transformant en une république, dont Nicolas Sarkozy était également président. Cette adaptation de l’histoire fut néanmoins rapidement corrigée par l’un des responsables de communication présent lors de la conférence, mais après être restée quelques jours telle quelle, et uniquement après que je l’aie présentée publiquement. On ne peut imaginer que cet exemple soit unique. Combien de pages sont d’ailleurs présentées par Wikipedia elle-même comme manquant de références, ou de qualité scientifique ? Et combien de modifications faites pour gagner des paris, ou par méconnaissance qui restent inchangées au-delà de quelques jours ? Même si Wikipedia peut être considéré comme une source d’information, un esprit critique et une vérification complémentaire sont souvent nécessaires.

Pour reprendre un élément inquiétant issu du célèbre ouvrage « 1984 » de George Orwell : « Si la communauté change d’avis et décide que deux plus deux font cinq, alors deux plus deux font cinq. La communauté ne fera vraisemblablement pas une chose aussi absurde ou inutile, mais elle en a la possibilité58 ». Il faut en effet rappeler les informations, films, vidéos, textes qui circulent sur Internet, commentés et republiés sans cesse, alors que leurs faussetés ont été démontrées depuis longtemps; que cela soit la théorie du grand complot, la non présence de l’homme sur la lune, les protocoles des sages de Sion, les faux journaux télévisés, sans oublier le célèbre « Loose change59 » qui tentait de démontrer que les attentats du 11 septembre 2001 avaient été effectués par l’administration Bush.

Si la fausseté de ces informations a été démontrée, combien d’ « hoax », de rumeurs, de mensonges continuent à circuler sans qu’il soit nécessairement simple ou évident de découvrir une éventuelle manipulation ou naïveté? Mais ici aussi le Web 2.0 joue son rôle puisque des sites tels que hoaxbuster60 tentent de démontrer la fausseté des rumeurs et ce sur la base d’informations qui leur sont transmises par les internautes.

Et que dire des pages sponsorisées qui sont publiées sur Internet et qui sont en réalité de la publicité plus ou moins déguisée? Si dans la presse papier les mots « communiqué » ou « publi-rédactionnel » apparaissent afin que le lecteur sache qu’il s’agit de publicité et non d’informations, comment le savoir sur Internet ? En effet, même si un avertissement existait dans la version initiale pour avertir qu’il s’agit d’une publicité, il aura peut-être été enlevé lorsqu’un internaute la retransmettra, et comme une étude a démontré que 62 % des internautes ne sont pas capables de voir la différence entre des pages neutres et des pages sponsorisées sur Internet61… Je reviendrai d’ailleurs sur cette critique lors de l’analyse de Google, un des acteurs principaux du Web 2.0.

Enfin, la dernière critique est liée à la prolifération des informations, au « vrac » dominant qui « menace assurément l’intelligence des choses, soit qu’on laisse l’internaute livré à lui-même dans le désarroi du hasard, soit (et je n’y vois pas contradiction) qu’on lui propose, pour espérer y échapper, un mode de classement de l’offre d’information, surabondante, qui se fonde sur le seul principe de la publicité, ou du succès allant au succès : c’est là contredire toutes les exigences d’une culture en marche, aux dépens du seul procédé qui vaille, celui de la validation proposée dans l’infinitude du désordre62 ». Il faut se souvenir que Google, lors d’une question sur son moteur de recherche mettra en avant non pas la réponse la plus pertinente, mais la plus populaire, indépendamment des liens payants qui positionnent des sociétés en tête des résutats de recherche.

Cette critique du Web a initié des réflexions tant dans l’enseignement qu’en entreprise, sur lesquelles je reviendrai. Le rôle de curateur, de filtre que pourraient prendre les enseignants ou certains collaborateurs en entreprise, les réseaux sociaux d’entreprise qui peuvent organiser l’information sont des pistes qui permettent de répondre à ces critiques liées à la quantité des informations non contrôlées.

De nombreux outils de curation (Scoop-it, Padlet, Pearltrees), généralement gratuits, permettent tant de trier des informations à l’intention des étudiants ou des collègues que de les faire travailler ensemble en mettant en œuvre l’intelligence collective. Dans le monde académique, malgré que j’ai pu constater que certains collègues « évangélisateurs » avaient organisé plusieurs séances d’informations à ce sujet en direction de collègues enseignants, il faut constater que le développement de la curation n’est pas encore une pratique courante, le frein le plus important mis en avant étant le manque de temps. L’usage du Web 2.0 se limite en majorité à l’usage de Google search, ou même Wikipédia. Google Scholar qui est pourtant LA référence en matière de recherche scientifique est peu utilisé.

Un autre problème est lié à l’accès plus ou moins libre aux données et aux informations qui peuvent dépendre notamment de la politique de gestion des accès à ces informations par les opérateurs ou les pouvoirs publics. C’est toute la question de la « neutralité du net » qui fait débat pour le moment, tant en Europe que dans le reste du monde. Les questions de limitation d’accès à des contenus, soit pour des raisons de coûts, soit pour des raisons de tentative de faire respecter les lois (de sites de partage de contenu qui ne respectent pas les droits d’auteur par exemple), ou de concurrence (difficulté ou impossibilité d’utiliser Skype via un mobile) sont au centre de réflexions législatives à venir et font l’objet de lobbying intense.

Les informations disponibles sur le Web sont tellement nombreuses que la question de leur accès, de leur classement, de leur vérification, de leur mise en avant par les moteurs de recherche est évidemment cruciale pour trouver la « bonne » information.

Mais après avoir envisagé les critiques, voyons quels sont les apports du Web 2.0.

4. LES APPORTS DU WEB 2.0

Le Web 2.0 a apporté un certain nombre d’éléments positifs pour le développement de notre société, en proposant un accès constant à l’information, une interaction sans commune mesure avec le passé, de nouvelles façons de travailler, de partager, de créer, d’innover.

Le premier apport est la création de nouvelles pratiques de partage, de validation et de co-construction des savoirs.

a) Les pratiques de construction, partage et validation des connaissances

Comme nous l’avons déjà constaté, nous sommes confrontés, et ce avec une rapidité croissante, à plusieurs phénomènes simultanés :

Une augmentation croissante des contenus disponibles gratuitement en ligne, y compris de plus en plus de contenus scientifiques jusque-là réservés à des revues papier à tirage souvent confidentiel et au prix élevé;La facilité de copie qui permet le plagiat sans trop d’efforts;Une incapacité souvent dénoncée à gérer ce flux constant d’informations, cette « infobésité »;Une nécessité d’intégrer une formation permanente, un « long life learning » du fait de l’évolution des métiers, des fonctions, des organisations;Une obligation de mettre en place non seulement une veille informationnelle efficace mais aussi un suivi de sa « e-réputation »;La prise de conscience de ce que l’information n’est plus réservée à une élite mais est, théoriquement, accessible à tous, et que la remise en cause d’une connaissance affirmée peut être facilement effectuée.

Ces évolutions ont profondément modifié les comportements, les modes de travail, les collaborations au sein des entreprises et des universités en développant et en rendant indispensables des pratiques de co-construction des connaissances, conséquences de cette formidable explosion du Web 2.0 et des médias sociaux, et de ces innombrables contributions proposées. La construction de la connaissance est devenue collective, spontanée et n’est désormais plus réservée à un groupe d’experts, mais ouverte à tous.

Des réflexions ont eu lieu au sein d’un nombre grandissant d’entreprises et d’organisations quant à la mise en place de réseaux sociaux internes, qui permettront de trier les flux d’informations, de mettre en place des réseaux spécialisés, et d’utiliser l’intelligence collective pour, d’une part documenter les connaissances existantes et, d’autre part, permettre le développement de projets et d’idées innovantes.

Cette évolution, ce travail de collaboration, constituent un risque et une opportunité :

Un risque qui est lié

 à la qualité de la connaissance proposée qui peut être fausse (volontairement ou involontairement), incomplète, mal mise en perspective, ne respectant pas les principes de gestion de la propriété intellectuelle,

 à sa quantité illimitée du fait que plus aucune barrière à l’entrée n’est mise en place pour filtrer les « publications » en ligne;

Une opportunité car elle permet

 à de nouveaux entrants de participer à la co-création de connaissances, d’apporter une créativité nouvelle,

 aussi de mettre en place de nouvelles collaborations entre acteurs qui auparavant travaillaient séparément.

Le partage des connaissances et des informations est immédiat du fait de leurs publications en ligne. Il est même favorisé par les systèmes de médias sociaux du type « retweet » sur Twitter, « Like » sur Facebook, « rescoop » sur l’outil de curation Scoopit et tous les boutons « share » qui permettent de partager un contenu en un clic. Ces mécanismes permettent en un instant de retransmettre une information émanant d’un tiers à l’ensemble de son réseau. Mais ce partage est néanmoins limité du fait de :

L’accès à l’information. N’oublions pas qu’il reste un nombre non négligeable d’habitants du globe qui n’ont pas accès à l’Internet;L’accès à la « bonne » information qui nécessite un apprentissage important de la veille informationnelle, de la recherche d’informations fiables et qui renforcent l’utilisation de la curation. Ces usages et des formations spécifiques commencent à voir le jour au sein des entreprises et des universités;Les limites imposées par la propriété intellectuelle qui ne permet pas tous les partages. Un article, un contenu, une image qui serait protégé par le droit de la propriété intellectuelle ne peut pas être, par exemple, scanné et reproduit en ligne sans autorisation préalable ou respect des conditions prévues par l’auteur ou l’éditeur. Mais force est de constater que la propriété intellectuelle est souvent mise à mal dans les partages du Web 2.0.

Quant à la validation préalable des contenus, elle n’existe plus pour les contenus publiés sur Internet du fait que chacun peut y mettre en ligne le contenu qu’il souhaite. Mais la question de la vérification préalable des contenus n’est pas neuve. Erasme déjà, critiquait la surabondance de livres imprimés : « Jusque dans quel recoin du monde ne volent-ils pas, ces essaims de nouveaux livres ? Leur multitude même est préjudiciable au savoir parce qu’elle crée une surabondance et que même dans les bonnes choses la satiété est néfaste.63 ». Au début de la période moderne, une poignée d’humanistes réclama un système de censure, jamais mis en place, pour garantir que seules des éditions de grande qualité soient imprimées64. Aujourd’hui encore, nombre d’intellectuels critiquent la surabondance de contenus sans contrôle préalable, et la perte de qualité de l’écrit digital. Ils rejoignent d’ailleurs certains Etats peu démocratiques désireux d’un plus grand contrôle des contenus disponibles sur Internet, mais pour des raisons plus politiques.