Vous consultez une publication écrite par : Lycée Blaise Pascal de Charbonnières-les-Bains
la démocratie numérique
Cette publication est une ressource concernant les recherches sur le thème lié Ce qu’internet fait à la politique - Chose publique 2018
« La voix du web », Baptiste Kotras, septembre 2018 – Edts du Seuil et La République des Idées. Ce livre est tiré d’une thèse pour le doctorat de sociologie réalisée de 2011 à 2016.
Fiche de lecture.
Remarque : en italique, ce qui est pris dans le texte
Ce que pensent les gens ? Introduction p 7
La conversation en ligne très importante recèle des opinions revêtant une forme supérieure d’«authenticité» car produites en l’absence de toute sollicitation préalable.(*)
Que devient l’«opinion publique» ? Comment sont reconfigurées la mesure des citoyens et des consommateurs par ceux qui se saisissent des conversations numériques ?
L’étude de B.Kotras éclaire la manière dont (les) opinions sont mises en forme à l’ère du big data (champ : starts up et agences depuis 2000 ayant élaboré des méthodes inédites pour mesurer l’opinion grâce aux publications des internautes, c’est-à-dire la voix du web). Elle décrit l’émergence des nouveaux régimes de l’opinion. Ce qui a un impact sur le sens des mots et la place des publics politiques et marchands dans (les) démocraties.**
Le rêve du sociologue depuis l’origine des recherches p 8
Ces données intéressent les sciences sociales dès leur origine (Gabriel Tarde, «L’opinion et la foule», 1901 appelant à faire de la sociologie, la «science des conversations»), mais ce sont bien les entreprises privées qui s’en saisissent aujourd’hui avec un CA de 2,2 milliards de $ en 2015 dans le secteur du social media analysis selon le cabinet Markets and Markets. Ce marché est de plus en plus concentré autour de grands éditeurs de logiciels (NetBase, Synthesio, Brandwatch), mais il englobe les mondes de l’informatique, du marketing et bien évidemment, des sciences humaines. Il offre des outils inédits pour connaitre les représentations du grand public.
Une opinion spontanée ? (*) ou la mesure supposée non biaisée de la société p10
Pour ces entreprises, c’est l’intérêt majeur : il n’y a pas, à priori, de fabrique d’opinion, car fondée sur les traces (…) des comportements individuels, et non sur des données déclaratives. Les études de marché sont donc débarrassées des focus groups et des enquêtes quantitatives : l’opinion est calculable grâce aux algorithmes sophistiqués du big data.
Comme les instruments technologiques et les méthodes de mesure ne sont pas neutres, B. Kotras a enquêté directement auprès de ces entreprises en partant du postulat qu’il devait «entrer dans les calculs » (…) et documenter en profondeur les savoirs, les partis pris et les projets politiques qu’ils contiennent… par entretiens et la réalisation d’une ethnographie participante au sein de l’entreprise française Linkfluence.
Un acte politique p12
Il s’agit de comprendre ce nouveau régime de l’opinion qui s’appuie sur l’opinion en ligne. Un régime de l’opinion concerne des manières bien définies de mettre en forme, de connaître et de gouverner «ce que pensent les gens».**
Ici, les différents acteurs modélisent l’opinion non pas comme une addition de préférences individuelles, mais comme un phénomène éminemment collectif et socialisé, où l’inégale influence des différents locuteurs joue un rôle essentiel. p13
1-De la mouche au sondeur p15
Comment a-t-on mesuré les opinions au cours du passé ? (CF tableau 1, page28 : Quatre dispositifs historiques de la mesure d’opinion)
L’idée de solliciter activement la population, par sondage par exemple, est assez récente. La surveillance minutieuse des signes, des manifestations d’une opinion (…), déjà là, le plus souvent dans l’espace public a été antérieure car solliciter ouvertement la population présuppose une reconnaissance de la légitimité de ses avis dans l’ordre public. Cette légitimité est devenue «acceptable» avec la stabilisation de la démocratie libérale.
A l’échelle de l’histoire, B. Kotras présente quatre régimes de connaissance et de gouvernement de l’opinion dont les techniques politiques sont réactualisées dans la mesure de l’opinion à partir de la parole en ligne.
Surveiller : quand la monarchie écoute aux portes p17
«Les mouches» ou agents délateurs sont déployées par la lieutenance générale de police de Paris (1667) sous la monarchie absolue au XVIIème : ces agents captent la rumeur urbaine. Leur fonction n’est pas que répressive, elle est aussi de produire une information pour les hautes sphères du gouvernement appelant des réponses politiques, notamment la propagande de contre-rumeurs.
Leurs rapports donnent une restitution extensive des conversations de la population de Paris en cherchant à effectuer une synthèse de « l’esprit public ». Ils s’intéressent donc aux propos tenus en public plus qu’à ceux qui parlent. Les opinions sont triées : toutes ne se valent pas. L’opinion rapportée vaut pour la charge critique dont elle est porteuse.
Dans ce régime, qui perdure de nos jours à travers la pratique du renseignement intérieur, l’opinion mesurée est, à l’instar de celle collectée sur le web à notre époque, une opinion qui ne sait pas (qui n’a pas l’impression de) peser sur les décisions de ceux qui la scrutent. Captée et analysée en continu, elle informe sans le savoir l’action stratégique des commanditaires de la mesure.
Influencer : l’opinion des notables p19
Au XIXème siècle, le pouvoir central s’appuie sur des notables, éditorialistes ou leaders d’opinion, choisis pour leur connaissance supposée de l’esprit public local. La mesure s’effectue ici à l’échelle de tout le pays.
Entre la Restauration et le Second Empire, le ministère de l’intérieur est le coordonnateur d’un réseau doté de deux principales ramifications :
● celle des préfets institués par département par Bonaparte où un « panoptisme archaïque », d’essence villageoise, alimente un « panoptisme moderne bureaucratique ».
●celle tenue par un Bureau de la presse (presse ouvertement et intégralement politisée à l’instar d’une presse d’opinion) qui dépouille et synthétise quotidiennement le contenu des journaux nationaux et locaux.
Ce dispositif institue des leaders d’opinion, individus jugés déterminants dans la formation et la circulation des opinions et choisis parmi les élites locales et les gens de presse. L’opinion de la population est toujours interprétée jamais sollicitée. Il y a une conception censitaire de la démocratie avec les élites sociales choisies comme « interprètes spontanés du peuple ».
Ce régime de l’opinion, focalisé sur un petit nombre de leaders, sera remis au centre des débats par l’irruption des techniques de l’opinion en ligne.
Se compter : les votes de paille p22
Le vote de paille (straw vote ou straw poll) connaît un grand succès aux Etats-Unis à partir des années 1850 jusqu’à la présidentielle de 1936. Il a pour objectif de simuler pour anticiper les résultats électoraux. Journalistes, simples citoyens sondent les intentions de vote de leurs collègues, amis, voisins, individus dans les transports en commun, clubs sociaux, sur les campus, à l’épicerie. A cette époque, entre 20 et 25% du corps électoral est impliqué dans les activités de campagne. La presse est le principal porte-parole de l’opinion publique : elle la reflète autant que la suscite.
Il s’agit de montrer le dynamisme de son candidat en pesant sur le débat par la démonstration chiffrée de la mobilisation en sa faveur : la croyance que les indécis donnent leur vote au candidat annoncé comme gagnant (effet bandwagon) est particulièrement généralisée.
Dans ce régime de l’opinion, il est question de montrer par le nombre, la force de mobilisation d’une idée, d’un camp politique et, par là, de peser sur les opinions indécises. Pour cela, les opinions du grand public sont sollicitées.
Quantifier : l’invention de la représentativité p25
La sollicitation se fait, ici, avec les enquêtes par sondage. Forgé aux Etats-Unis dans les années 1930 (G. Gallup, E. Roper et A. Crossley), le sondage hérite à la fois de l’expérience des votes de paille, de la psychologie sociale positiviste des années 20 et, surtout, des travaux de la communauté statisticienne au début du XXème siècle, qui définissent les conditions de la représentativité au sens statistique.
Le projet des sondeurs vise donc à revitaliser la vie démocratique par la production scientifique d’une opinion publique permanente, amenée à trancher sur tous les sujets.
Cette alliance entre science et démocratie se propage au domaine marchand.
Le sondage tire sa force, mais est aussi largement critiqué dans le fait que des opinions singulières, conjoncturelles, diversement informées, deviennent alors assimilables les unes aux autres : elles sont rendues équivalentes et transformées en quantités univoques. Ce point suscite d’importantes résistances et critiques en France, tout particulièrement chez les éditorialistes qui défendent leur compétence à sentir les phénomènes d’opinion.
L’irruption du web social fera éclater cette présomption d’équivalence entre les opinions.
Le web dans le prolongement d’une histoire longue. p29
Tirer parti de la spontanéité de l’expression en ligne suppose (finalement) de renoncer au paradigme de la représentativité statistique. Le défi est de retracer la variété des réponses des acteurs de l’opinion en ligne avec des outils nouveaux (science des réseaux, cartographies du web, bases de données relationnelles, tableaux de bord ou algorithmes de traitement automatique du langage…) et de voir comment se stabilise un nouveau régime de connaissance et de gouvernement des opinions. P30
2- Redéfinir la représentativité sur le web p31
La question est de savoir quelle valeur il faut attribuer aux avis qui circulent sur le web, alors qu’il est le plus souvent impossible de savoir qui s’exprime, donc de mesurer une opinion représentative de quelque population que ce soit ?
Ce chapitre décrit un premier modèle de l’opinion en ligne, fondé sur l’échantillonnage des publics porté par des agences et des start-ups principalement issues des mondes de la communication, du marketing et des sciences humaines et sociales. L’expérimentation se fait dans le domaine politique (élection présidentielle de 2007) et la valeur ajoutée repose sur le travail d’analystes humains.
Cet échantillonnage apparaît impératif face à l’abondance des traces numériques : il ne faut pas « tout écouter » sur le web … au contraire, (il faut) construire une mesure de qualité…
Davantage que pour leurs caractéristiques socio-démographiques, les internautes sont échantillonnées en fonction de :
● leur mobilisation sur un sujet donné, mesurée par leur appartenance à des «communautés» thématiques ;
● leur visibilité médiatique.
La conception du concept de représentativité est explicitement politique et non mathématique : les «meilleures» opinions sont privilégiées (visibilité et influence dans l’écosystème médiatique du web social).
Le découpage communautaire du web social p33
Le concept de «communauté» est de longue date utilisé en sciences sociales pour décrire la sociabilité des internautes autour d’un centre d’intérêt partagé, dans des groupes de discussion ou des réseaux de blogs. Il a été investi dans les années 2000 par les professionnels du marketing et de la communication digitale.
Les spécialistes de l’opinion en ligne conçoivent le web comme un kaléidoscope de communautés thématiques relativement distinctes, au sein desquelles les internautes échangent sur leurs passons et préoccupations, racontent leurs loisirs, leurs consommations aussi bien que leurs réactions à tel sujet d’actualité.
Linkfluence, fondée par quatre ingénieurs de l’UTC (Université de technologie de Compiègne), est pionnière sur le marché français. Elle suit les traces du journaliste Howard Rheingold et s’appuie sur le champ des link studies (études de lien).
Un lien hypertexte, appelé parfois “hyperlien” ou plus simplement “lien” dans le monde du web, est un élément d’une page web qui, lorsque l’internaute clique dessus, dirige celui-ci vers une autre page web. Cet élément peut être une image (une photo, un bouton), un texte ou une zone de la page. Les liens sont à la base du web : c’est grâce à eux que les internautes peuvent naviguer d’une page à l’autre, et ainsi explorer le World Wide Web. Exemple : https://www.1min30.com/dictionnaire-du-web/lien-hypertexte.
Les liens hypertextes sont étudiés comme objets sociaux et leur étude vise à analyser les dynamiques de socialisation et de circulation de l’information sur Internet en (observant) à grande échelle l’échange des liens entre sites web. Linkfluence s’intéresse aux régularités structurelles de leur distribution sur le web, à partir de l’algorithme HITS.
L’algorithme HITS, pour Hyperlink-Induced Topic Search (recherche thématique d’hyperlien induit), est un algorithme qui permet de mesurer l’autorité d’une page Web par rapport à d’autres. Il a été créé en 1999 par Jon Kleinberg. Il est parfois considéré comme précurseur de l’algorithme PageRank qui, comme HITS, a pour but, sur la base d’un graphe, d’assigner un score à celles-ci de façon à identifier les pages ayant le plus d’«importance». (définition wikipédia)
Deux résultats sont importants :
● un tout petit nombre de sites concentrent l’essentiel de l’autorité ;
● les sites échangeant des liens tendent à partager un même centre d’intérêt : il y a un principe affinitaire dans l’échange des liens hypertextes.
Ces deux résultats sont au cœur de la conception de l’espace social en ligne de Linkfluence, et donc de ses techniques d’échantillonnage. …
Prenant pour objet le débat sur le droit à l’avortement, les quatre ingénieurs démontrent que ses partisans comme ses adversaires constituent des territoires hypertextuels politiquement homogènes … (et) l’existence de clusters, grappes de sites densément reliés entre eux et très peu avec les autres sites, (…) en cartographiant le réseau des liens.
En 2005, ils ont les mêmes résultats avec le TCE (Traité constitutionnel européen). Ils sont alors embauchés par le Service d’information du gouvernement auprès du Premier ministre pour créer un observatoire de l’opinion publique sur le web. Linkfluence est alors créée fin 2006.
Jauger et imputer les opinions du web p37
Linkfluence démarre un travail de normalisation et de balisage du websocial : le modèle communautaire est élargi à l’ensemble de la blogosphère.
Le livepanel, référentiel général des territoires thématiques, s’élargit grâce aux crawlers (programmes informatiques parcourant automatiquement le web de lien en lien…) mobilisés pour indexer et cartographier des communautés consacrées à tous types de sujets : à son apogée, 120 communautés, environ 15000 sites et blogs catégorisés humainement et un par un.
Ce livepanel important est à la base des négociations avec les responsables de la communication ou du marketing de grandes entreprises. Ces derniers sont habitués à raisonner en termes de cibles socio-démographiques, ce qui impose à Linkfluence un travail important de traduction pour exprimer leurs objectifs.
Exemple d’une étude menée en 2011 sur la présence en ligne d’une émission de TV consacrée à la décoration d’intérieur (soit DécoTV) produite et sponsorisée par une grande enseigne française de bricolage (Brico-Déco).
Pour évaluer sa notoriété sur le web, les chargés d’études ont sélectionné un échantillon composé de communautés liées à la décoration d’intérieur, à la télévision et au marketing dans la mesure où l’émission répond à une stratégie de communication de Brico-Déco.
●78 sites via le livepanel sont réactifs à la mention DécoTV dont la moitié seulement provient des communautés liées à la maison, cœur de cible de l’émission, le reste étant issu des communautés de la télévision et du marketing ;
●1953 sites et blogs à minima via le livepanel forment le marché conversationnel potentiel dédié aux communautés du bricolage et de la décoration intérieure.
En conséquence, le positionnement actuel de la marque ne bénéficie pas de ce marché conversationnel.
4% (78/1953) des mentions dédiées représentent la jauge des opinions qu’il est possible d’imputer à des publics bien identifiés : la moitié des citations de la marque concerne les communautés liées à la maison.
L’échantillon communautaire joue donc, pour partie, un rôle analogue à celui de l’échantillon statistique dans les sondages traditionnels. Mais, outre1)- la réduction drastique des populations à étudier, il offre aussi et surtout 2)-une grille interprétative prédéfinie, qui permet simultanément de a-quantifier et de b-qualifier les opinions collectées.
Les individus opinants ne sont 3)-plus définis par leurs propriétés sociales, mais par leur activité en ligne.
L’opinion des «influents» p41
Toutes les paroles n’ont pas le même statut (CF «Les mouches») : certains locuteurs bénéficient d’une grande visibilité, presque tous les autres, (…), demeurent presque invisibles.
Problème méthodologique et politique : que faire de ces criantes inégalités de visibilité ?
Presque toutes les start-ups et agences adeptes de l’échantillonnage ont tranché : elles adoptent le parti pris de la visibilité des locuteurs comme critère essentiel de sélection des opinions.
Les échantillonneurs de l’opinion en ligne rompent ainsi avec l’égalitarisme du sondage.
Echantillonner les plus visibles p42
La sélection des jugements les plus visibles procède d’une critique de l’exhaustivité, qui préfère établir des règles afin d’épurer les données et, dans un contexte où l’information est importante et l’attention rare, restituer au commanditaire la parole dotée de la plus grande valeur.
Un cofondateur de Linkfluence soulignait en entretien en décembre 2012 :
« Notre outil permet de comprendre où se crée l’opinion, où se construit l’image. Si je rajoute une source que personne ne lit, elle va fausser les résultats »
Un cofondateur de Scanblog avait également développé en août 2012 :
« Trouver le billet d’un blogueur qui vient d’être publié à propos de votre marque et qui vous tape en plein dans la tronche, mais qui n’est visible que de lui … parce que son référencement naturel est naze, que personne n’a retweeté son truc et qu’il se trouve en 52ème position de Google… C’est bien de l’avoir vu, mais à ce stade-là, ce n’est même pas un signal faible, c’est un truc qui est totalement inexistant. »
Scanblog et les autres échantillonneurs élaborent des algorithmes pour donner à chaque blog ou site web un score de visibilité, en fonction de la position dans les résultats des moteurs de recherche, du nombre de liens reçus ou de l’audience du site. Mais plus que l’audience, c’est l’insertion réussie de ces sites et blogs dans les réseaux de pairs qui leur donne une probabilité de propagation supérieure à la moyenne, et justifie donc une attention exclusive. A cela il faut rajouter l’impératif organisationnel spécifique : la plupart de ces agences sont fondées sur le modèle du conseil et de l’analyse et dépendent en cela de leur force de travail humaine. Pour ces entreprises, s’impose donc la contrainte des volumes des traces conversationnelles collectées.
Comme l’expliquait un directeur commercial de Synthesio en août 2012 : « Les volumes sont impossibles à gérer, donc il faut bien une méthodologie pour les sampler ! (échantillonneurs)»
Une mesure médiatique et relationnelle de l’opinion p46
En prenant en compte l’extension de l’espace public et la possibilité croissante pour l’individu de se faire média, les échantillonneurs de l’opinion en ligne renouent avec la tradition, bien antérieure de la veille de presse et des « relations publiques » constaté ces dernières années (CF l’opinion des notables).
Ils sélectionnent les sources les plus influentes, déterminent donc des influenceurs traités comme des « éditorialistes » au pouvoir prescriptif sur la masse des internautes «ordinaires».
L’opposition entre les deux principes de légitimité de l’opinion, principe de numération (vote, sondage) et principe de pondération par l’importance sociale et médiatique est réactivée (CF analyse de G.Tarde).
Il s’agit d’une opinion autorisée où la mesure des opinions est une mesure de réputation. Les opinants sont traités comme des médias.
Les mots pour le lire. p49
Il faut construire patiemment des publics spécifiques avant d’analyser des opinions.
Point important, la parole en ligne est considérée comme débarrassée de tout biais de questionnement et du soupçon permanent de l’imposition de problématique par l’enquêteur…que dénonçait P. Bourdieu. Cette promesse, typique du monde des big data constitue la clé de voûte des dispositifs de l’opinion en ligne, à la fois sur le plan épistémique (c’est-à-dire pour l’étude des conditions de validité des connaissances scientifiques) – puisque la spontanéité donne son intérêt spécifique à la connaissance de l’opinion – et sur le plan moral, en ce qu’elle leur confère la légitimité d’une opinion autonome et authentique (…).Mais ces promesses sont parfois disproportionnées et la spontanéité est loin d’être une caractéristique à priori comme le montrent les procédures mises en place, déjà dans le travail des «samplers».
Dans ces procédures, il faut aussi inclure le travail des chargés d’études, qui pour collecter la parole en ligne, doivent entrer des termes de recherche dans un moteur. C’est donc également une question de sémantique (discipline qui étudie le sens des expressions linguistiques) que la «panélisation» du web permet de limiter dans le sens où les publications des internautes sont produites par des collectifs thématiquement pertinents réduisant l’utilisation des mots-clés. Il y a ainsi une acculturation aux diverses régions thématiques du web.
Les praticiens peuvent donc multiplier les façons d’accéder au matériau, évitant de faire intégralement reposer la qualité et la diversité des opinions collectées sur leur imagination sémantique.
Autre questionnement sémantique, celui concernant l’objet de l’étude demandée par le client. Le briefing au lancement de cette étude est particulièrement important pour définir précisément les mots-clés à utiliser. Il est conçu comme le moment d’un retournement décisif où il est nécessaire de reformuler – parfois largement – les questions et les catégories du client, de façon à limiter leur effet d’imposition. Ce qui se traduit dans les mots-clés sélectionnés dans cette « fameuse bascule mentale entre la terminologie de l’entreprise cliente et celle de ses consommateurs.
Ainsi, prélever un matériau spontané implique donc paradoxalement des techniques d’enquête relativement contraintes, visant à requalifier la parole des internautes en réponse à des questions qui ne leur ont pas été posées.
Le codage des opinions p53
Le souci de « non écrasement» du matériau demeure lors de l’analyse des verbatim collectés.
En cela, le moment du codage, où les analystes créent l’équivalence entre des opinions singulières en les classant dans une même catégorie, est particulièrement crucial, en ce sens qu’elle permet de transformer l’expression des internautes, non intentionnelle, déterminée et polysémique, en opinion sur tel ou tel sujet. Il faut à la fois synthétiser et conserver la variété. Pour répondre à ce dilemme, il y a deux options :
● utiliser un algorithme de classification sémantique dite « non supervisée (par un travail humain, basée sur la proximité lexicale) » chargé de construire des classes de discours donc de former des « paquets de texte » avant que n’intervienne le chargé d’études nomme, décrit et interprète les types de discours « révélés ».
● construire des catégories de l’opinion mesurée sur l’appréciation du chargé d’études, dans le cadre d’une démarche la plus inductive possible, ouverte aussi au surgissement de thématiques inattendues, comme le fait religieux dans l’étude de perception du don de moelle osseuse demandée par l’Agence de biomédecine à Linkfluence.
Opinions typiques, opinions atypiques p55
L’analyste est en position d’expert vis-à-vis de son client. Celui-ci n’accède aux opinions des internautes que par le truchement du rapport. Le rapport donne donc des citations directes de verbatim jugées emblématiques (effort quasi ethnographique) ou recelant un fort potentiel heuristique.
C’est donc un trait caractéristique de la mesure des opinions sur le web que de ne pas focaliser uniquement sur les opinions les plus répandues, mais au contraire d’accorder une place privilégiée aux opinions porteuses d’une intensité particulière. Un exemple est celui d’un constructeur de deux-roues pour lequel Linkfluence a présenté un troisième thème à égalité avec deux autres thèmes plus récurrents et cités, celui de la présence persistante du nom du meurtrier Mohamed Merah, aperçu au moment des faits sur l’un des modèles de marque.
Le poids et le nombre : conclusion partielle p58
La mesure de l’opinion sur le web modifie donc profondément le contenu même de l’objet « opinion » : en renonçant à produire les traces qu’ils analysent, ses acteurs rompent avec le modèle des sondages et l’idée d’une quantification objectivée de l’opinion. Il n’est plus question de reproduire l’épreuve électorale en produisant majorités et minorités, mais de constituer des publics autorisés, spécifiquement enclins à opiner sur un sujet et dotés d’une aptitude particulière à se faire entendre.
Ce faisant, ces acteurs renoncent à l’argument égalitaire et démocratique. … Au contraire, la valeur épistémique et morale de l’opinion mesurée sur le web repose sur la compétence des internautes qui la produisent. Valorisant le poids plus que le nombre, ce type de mesure fonde un régime de participation non statutaire à la vie publique, qui délaisse le principe d’égalité entre les individus pour favoriser les contributions des plus motivés et des plus reconnus d’entre eux, distingués ex ante par le dispositif et mis en position de s’exprimer au nom de tous.
Pour écrire cet article nous nous sommes aidé des sources suivantes : Autres