Communication et données : des productions et des diffusions démocratisées

Cet article fait partie du dossier « Transition numérique, quel contexte et quelles pratiques ? », construit à partir des interventions et cours suivis dans le cadre du Master Management de la transition digitale du Cnam Paris (1er semestre 2017-2018), coordonné par Manuel Zacklad et Sylvie Parrini-Alemanno.

Retrouvez le sommaire du dossier et tous ses articles !


Stratégies et outils de la nouvelle bataille de l’attention

L’ère numérique qui marque notre époque contemporaine, comme nous l’avons présenté dans notre première partie, permet l’accès à de nouveaux moyens de communication puis impose, une généralisation de la communication numérique pour les organisations, qu’il s’agisse des entreprises ou des collectivités publiques. « L’explosion de l’utilisation des outils numériques par le grand public rend obligatoire de communiquer sur Internet et sur les réseaux sociaux » explique Nabila Ait Samadi, responsable communication du groupe de protection sociale Malakoff Médéric, « les médias ne sont plus les seuls à communiquer, les marques et les utilisateurs contribuent à ce que Mark Schaefer décrit comme un « content shock », un choc de la production des contenus ». Une organisation structurée comme un média

Conséquence de cette profusion de messages sous toutes les formes, de points de contacts publicitaires qui ont triplé entre 1995 et 2015 pour atteindre 6000 publicités par jour et par individu, les marques se livrent à une bataille de l’attention pour capter leur audience. Ce renversement de conception de la communication traditionnelle des entreprises, qui fait de l’attention une valeur économique au même titre qu’un revenu commercial, les transforme en médias, reprenant les logiques d’organisation et les stratégies éditoriales de ces derniers : choix et création de contenus dans une logique non marchande, formats éditoriaux variés…

Deuxième volet de la stratégie de communication digitale des entreprises, la diffusion est un registre que l’on pourrait considérer comme plus habituel pour les entreprises, rodées à l’exercice de la publicité. Mais les nouvelles formes de promotion s’appuient davantage sur l’adhésion, l’incitation, la séduction et l’influence sur les réseaux sociaux que sur l’achat d’espaces ou la promotion payante, bien que ces canaux restent nécessaires. « Créer des contenus ne suffit pas, il faut les animer, les faire connaître, travailler la e-réputation, l’influence et réaliser un travail de veille » explique Nabila Ait Samadi.

Méthodes de veille et de curation

Face à la profusion des messages et informations diffusées dans l’univers numérique, la démarche de surveillance plus ou moins active de celles-ci s’est en effet elle aussi généralisée, bénéficiant des gains technologiques apportés par Internet. Pour Orélie Desfriches Doria, les raisons de recourir à la veille peuvent être de plusieurs ordres : « aider les prises de décisions stratégiques, soutenir les prises de décisions de planification à moyen ou long terme, construire ou maintenir des avantages concurrentiels, percevoir/anticiper les changements dans l’environnement, identifier les risques et les opportunités… plusieurs types de veilles existent pour répondre à ces objectifs, qu’il s’agisse d’une veille commerciale, d’une veille image ou juridique ».

Outil de filtre du bruit numérique, la veille répond à un cadre d’application exigeant et contraignant. La curation, quant à elle, se différencie de la veille et porte davantage la marque du web 2.0 sur au moins trois aspects : elle reprend « la logique de suivi de personnes, de thèmes ou de documents, popularisée dans les usages des réseaux sociaux » ; elle élargit le cercle des producteurs de l’information des « gatekeepers » (journalistes, éditeurs, enseignants) à tout un chacun ; enfin, elle joue le jeu du partage propre au web 2.0 en permettant à ses curateurs de « produire rapidement et facilement du contenu qui lui donnera de surcroît une meilleure visibilité ».

Les données, open et structurées

Les nouvelles opportunités de création de contenus permises par le numérique ne se limitent toutefois pas à celles entreprises de manière volontaire par les individus ou les organisations. La prolifération des données ou datas s’inscrit dans la numérisation du monde, portée entre autres par le progrès technique et la démultiplication des capacités de calcul, de traitement et d’émission de données par les machines. « Les machines électroniques sont devenues de moins en moins coûteuses et de plus en plus puissantes, comme l’a représenté la Loi de Moore en 1965 qui prédisait le doublement de la puissance des microprocesseurs tous les deux ans à coût constant, ce qui s’est effectivement réalisé entre 1971 et 2001. Et aujourd’hui, l’internet des objets démultiplie la production en réseaux de données » souligne Maryse Carmes.

Ces « désirs de datas » se manifestent par la volonté d’exploiter les informations produites par tous les systèmes afin de « favoriser de nouvelles intelligences collectives, contribuer à une réponse aux défis urbains, sociaux, environnementaux et pourquoi pas nourrir l’action publique ? ». Car les données, « d’une grande hétérogénéité et de plus en plus croisées avec d’autres objets, connectés par exemple ou dispositifs comme les territoires », ont aujourd’hui le pouvoir de transformer les environnements par exemple, « dans les analyses de l’environnement, des mobilités, dans l’urbanisme » cite Maryse Carmès et fait référence à « une expérimentation menée à Rennes consistant à recueillir les données émises par les smartphones des passants circulant sur la voie publique afin d’en dégager des flux de circulation ».

Les collectivités publiques sont placées dans l’obligation de se saisir du sujet de la donnée, du fait de leurs obligations légales inscrites et renouvelées dans plusieurs lois (Loi Cada, Loi Macron, Loi NOtre, Loi Valter, Directive PSI 2013/37/EU, Loi Lemaire pour une République Numérique…) mais aussi de l’émergence des mouvements mondiaux de l’Open Data et de l’Open Gov, dimensions politiques de la data et du web. Maryse Carmes définit « l’Open Data comme un ensemble de processus qui convergent vers un objectif et un mode opératoire communs : la dissémination et l’utilisation de ressources informationnelles, indépendamment de leur contexte de production d’origine. Cela impliquant le libre accès aux données et l’absence d’enclosures qui en limiteraient la ré-exploitation (enclosures qui peuvent être de nature technique, commerciale, juridique, cognitive et politique) ». Les implications techniques, réglementaires, politiques de l’Open Data sont complexes et impliquent tout à la fois de nouvelles compétences, une réflexion sur le rôle politique de la donnée et ce, tout au long de son cycle de vie et de ses processus.

Cycle de vie de la donnée (Maryse Carmes)

Web de données, de la lecture pour les machines

Si le web est à l’origine de ces possibilités techniques de mise en relation de données, ce n’est que depuis peu que la recherche d’une meilleure structuration et identification des contenus des pages web n’a été initiée, notamment à travers du web sémantique et du Linked Data. « Tim Berners-Lee a présenté le concept du web sémantique au début des années 2000 mais sa proposition n’a suscité que peu d’intérêt, des chercheurs, dont l’INRIA ont trouvé le développement intéressant et ont trouvé des intérêts et des applications avant que des bénéfices davantage orientés marketing n’apparaissent à leur tour pour relever l’intérêt pour le sujet » explique Gérald Kembellec. Outre les éléments classiques de structuration des pages web (balises html et feuilles de style css), le web sémantique se propose de décrire plus précisément ces pages web à l’aide de vocabulaires et de langages communs (Dublin Core, Schema.org, RDF) « permettant de lier les éléments les uns aux autres avec des concepts universels, des triplets sémantiques, et de rendre les pages web lisibles à la fois par les humains mais aussi par les machines ».

Des outils de visualisation et d’analyse des données

Cette approche structurée des données et graphiquement schématisées sert également à mieux identifier, lier et valoriser les informations produites à profusion sur le web. « La modélisation et cartographie dans les controverses est une méthode d’esprit critique, un mode de raisonnement qui doit permettre d’objectiver et représenter les connaissances dans une cartographie pour en faciliter l’analyse » explique Orélie Desfriches-Doria. Gaz de schiste, euthanasie, glyphosate… les sujets de controverses et de débats publics sont nombreux. Parvenir à déchiffrer ou « objectiver les discours et positions de chacun pour enlever la passion du débat » apporte des outils précieux pour « la médiation des débats et les processus décisionnels quels que soient les registres, économique, politique, environnemental ou juridique » soutient la chercheuse. Une fois la méthode d’analyse et de représentation déterminées, « scientométrique et orientée text-mining, ou sociologique et qualitative », les acteurs et leurs arguments sont « modélisés graphiquement sur une carte à l’aide de nœuds et de liens ». « Les nœuds sont l’unité minimale dans un hypertexte, et sont censés correspondre à une idée ou un concept, on préfèrera utiliser des noms propres, des noms communs, des entités nommées. Les liens qui relient les nœuds indiquent le sens de lecture et sont composés de verbes d’actions, de prépositions, de forme affirmative et peu conjugués si possible, comme accuse, cite, fondé sur, possède, produit… »

Organisation des connaissances

La production généralisée de données et les nouvelles formes de documentalité, « au caractère de plus en plus mouvant, évolutif, fluide du document » soulignée par Manuel Zacklad, imposent de resituer le rôle joué par l’organisation des connaissances dans les processus de documentarisation. En préambule, un rappel des définitions des différents systèmes d’organisation des connaissances (SOC) peut être fait. Les classifications universelles correspondent à « un système qui permet de préciser de manière systématique le placement physique d’un livre, comme par exemple le système Dewey », explique Manuel Zacklad, tandis que l’indexation, « part d’un vocabulaire contrôlé pour décrire le livre avec autant de mots-clés que l’on souhaite ». Autre SOC, le thesaurus est un index organisé hiérarchiquement et structuré dont « les termes visent à décrire des concepts ». Enfin, les ontologies, très liées à l’informatique, permettent à l’aide de langages formels de représenter « les relations entre différents termes » et les folksonomies, également désignées par nuages de mots-clés, d’étiquettes ou de tags, fonctionnent comme « une indexation avec un vocabulaire non contrôlé » et ont l’avantage de « pouvoir faire émerger de manière ascendante un vocabulaire de la foule et faire une convergence terminologique » explique Manuel Zacklad. Comment  parmi ces différents systèmes d’organisation des connaissances, chacun étant basé sur un langage et une méthode spécifique, choisir celui le plus adapté à sa problématique de documentarisation caractérisée par « de la numérisation accélérée des ressources documentaires et de la participation de plus en plus aisée des experts et des utilisateurs » ? Une grille d’analyse de sept critères est proposée pour permettre, selon des situations propres à chacun de ces critères, de choisir un ou plusieurs systèmes d’organisations des connaissances, et présentée dans un tableau ci-dessous :

Critères de choix d'un Système d'organisation des connaissances (Manuel Zacklad)

Critères de choix d’un Système d’organisation des connaissances (Manuel Zacklad)

 


Cet article fait partie du dossier « Transition numérique, quel contexte et quelles pratiques ? » Retrouvez le sommaire du dossier et tous ses articles !


 

1 commentaire sur « Communication et données : des productions et des diffusions démocratisées »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Blog du Master Cnam Transition Digitale