Réseaux, médias sociaux, intelligence artificielle et politique, par Yann Le Pollotec*

L’apprentissage profond, en anglais deep learning, est au cœur des avancées techniques qui justifient la présence si forte de l’intelligence artificielle dans l’actualité. En arrière-plan de décennies d’avancées scientifiques, l’indépassable question du progrès.
*Yann Le Pollotec est membre du Conseil national du PCF, en charge de la révolution numérique.


Mouvements et réseaux sociaux
Du référendum de 2005 à la pétition contre la loi El Khomri, de la Manif pour tous à #MeToo, des révolutions arabes aux mouvements des places, d’Occupy Walt Street aux Gilets jaunes, du Brexit aux marches sur le climat, des élections d’Obama à celle de Trump, de la France insoumise à la République en marche, depuis dix ans nous voyons des mouvements sociaux comme des mouvements politiques naître, se structurer et s’organiser à partir de l’usage des réseaux et des médias sociaux numériques. Ces réseaux et médias, qui constituent le Web social, jouent un rôle dans la mobilisation, la coordination et la propagande au sens premier du terme, c’est-à-dire de propagation d’idées et d’informations, vraies ou fausses. L’effet est maximum lorsque ces réseaux et médias sociaux entrent en résonance avec les médias verticaux et sans boucle de rétroaction que sont la radio, la presse écrite ou la télévision. L’importance de cette interaction entre médias traditionnels et médias numériques est particulièrement forte si la mobilisation numérique doit déboucher sur des actes dans le monde physique: manifester, occuper un lieu, mettre un bulletin de vote dans l’urne.

Un nœud bien connecté à d’autres nœuds
L’information sur les réseaux sociaux combine trois modes de diffusion : la viralité, la diffusion en cascade et celle par seuil.
La viralité suit des modèles de diffusion équivalents à ceux d’épidémies biologiques ou à ceux d’une rumeur portée par le bouche-à-oreille ; le mode de diffusion en cascade repose sur le pair-à-pair1, et conduit à une chaîne de diffusion. Ce qui compte alors est la longueur de la chaîne ; le mode de diffusion par seuil ou masse critique : à partir du moment où le seuil de x internautes publiant une information est atteint, sa visibilité accrue, et souvent amplifiée par l’algorithme du réseau social, pousse par effet d’entraînement d’autres internautes à la partager.
L’architecture d’un réseau social se compose de nœuds – un compte ou une page Facebook, par exemple – et de connexions ou liaisons entre ces nœuds, « amis » Facebook ou « followers » Tweeter. Bien entendu tous les nœuds d’un réseau ne se valent pas. Ce qui importe est qu’un nœud soit connecté à de multiples nœuds et qu’eux-mêmes soient connectés à une autre multitude de nœuds. C’est la condition nécessaire pour obtenir une diffusion « virale » des informations transmise. Et l’effet est d’autant plus important si le nœud a acquis un fort capital social et qu’à partir de ses multiples connexions il joue un rôle de prescripteur pour le partage d’informations. Ce capital social peut s’acquérir par réputation, mais il peut aussi s’acheter auprès du propriétaire du réseau qui, moyennant finance, fera apparaître vos informations de manière prioritaire et ciblée sur le fil d’actualité des autres utilisateurs du réseau, en fonction de leur profil.
C’est ainsi que très vite certains ont vu l’intérêt de dépasser un usage plus ou moins spontané et artisanal de ces réseaux et médias sociaux pour en déployer un usage industriel avec des outils numériques stratégiques, en particulier dans le domaine électoral. D’abord car le Web social, avec la gigantesque masse de données2 qu’il produit, constitue un formidable outil de mesure de l’opinion presque en temps réel, bien supérieur à celui d’un panel de sondage. Puis, surtout, car il offre nombre de possibilités d’agir sur cette opinion, de l’influencer, voire de la manipuler. Et cela de manière bien plus subtile que ne le font les médias de masse comme la presse écrite, la radio et la télévision, car les messages émis seront fortement individualisés par des techniques de profilage ayant aussi recours aux technologies de l’intelligence artificielle.

Irruption dans la vie politique
La première génération de ces techniques est apparue avec la première campagne de Barak Obama en 2008, à partir de la nécessité qu’il a eu de recourir à un financement populaire d’une partie de sa campagne par une multiplication de microdons. L’équipe d’Obama a alors transposé numériquement au domaine politique la technique de marketing de la segmentation – découpage d’une population en sous-ensembles homogènes selon différents critères – afin d’organiser un ciblage électoral précis, y compris en exploitant les données de géolocalisation. Cela a permis l’organisation de porte-à-porte ciblés des électeurs indécis, et de les suivre jusqu’au bureau de vote via une communication régulière et individualisée sur les réseaux sociaux, mais aussi par courriel et texto. L’équipe d’Obama a aussi construit des outils numériques d’« organisation de communauté par l’action » qui visent à transformer un sympathisant en acteur, puis en militant de la campagne électorale en élargissant systématiquement son capital social. De tels outils ont débouché sur le logiciel NationBuilder, qui est devenu une sorte de standard en la matière et qui, en France, pour l’élection présidentielle de 2017 a été utilisé par presque tous les candidats.
Ce type de logiciel, comme l’a montré son usage par Jean-Luc Mélenchon et Emmanuel Macron, permet de structurer très rapidement une organisation au fonctionnement très vertical et dont l’objet n’est pas l’élaboration de propositions et de choix politiques par le débat démocratique interne mais la production d’actes militants sur le terrain, qu’ils soient physiques – porte-à-porte, points de rencontre, tractage – ou numériques, en relayant et défendant la bonne parole sur les réseaux sociaux.
Une seconde génération a consisté à utiliser des moteurs d’analyse sémantique fondés sur des technologies d’intelligence artificielle d’apprentissage profond passant au crible les réseaux sociaux ou différentes enquêtes qualitatives3. Ces moteurs permettent de prioriser des thèmes de campagne, de fabriquer des éléments de langage avec le vocabulaire adéquat. Ils offrent aussi la possibilité de construire des messages individualisés ciblant tels ou tels groupes de personnes. Ainsi, à partir des données sur 220 millions d’États-Uniens amassées par le « courtier en données » Cambridge Analytica4, dont les données personnelles de 87 millions d’utilisateurs de Facebook acquises à leur insu, Donald Trump a pu générer automatiquement lors de son dernier débat avec Hillary Clinton des lots de plus de 125000 messages individualisés à destination de plus de 100 millions d’électeurs. Ces moteurs d’analyse sémantique concourent aussi à la programmation et à l’apprentissage de bots « militants » sur les réseaux sociaux. Les bots sont des robots dits « sociaux » qui simulent avec plus ou moins de bonheur des utilisateurs humains des réseaux sociaux et qui y portent la bonne parole de leur parti ou de leur candidat. Sur les 20 millions de tweets électoraux produits dans les dernières semaines de la campagne présidentielle états-unienne de 2016, près de 20 % ont été l’œuvre de bots de Clinton ou de Trump.
Ces bots produisent automatiquement du contenu et interagissent avec les humains sur le Web social avec l’ambition d’influencer les opinions et les comportements. Grâce aux techniques d’intelligence artificielle d’apprentissage profond, ils sont devenus très subtils, ce qui rend de moins en moins évident de les distinguer des utilisateurs humains des réseaux sociaux. Ils utilisent de faux profils Twitter ou Facebook, en « empruntant » des images en ligne, en leur donnant des noms fictifs et en clonant des informations biographiques à partir de comptes existants, en produisant de fausses localisations géographiques. Ils peuvent tweeter, retweeter, partager du contenu, commenter des publications, « aimer » des personnalités politiques, développer leur influence sociale en s’incrustant dans les files d’actualités, et même engager des conversations avec des humains. Ils sont particulièrement efficaces pour diffuser fausses nouvelles et rumeurs en jouant de l’effet de cascade qui fait qu’une fake new, un bobard, publiée par Twitter se propage rapidement à Facebook et à d’autres plates-formes, puis dans le monde physique. En France, lors des élections municipales de 2014, on a pu mesurer avec la « théorie du genre » le caractère particulièrement dévastateur de la diffusion de telles rumeurs.

Vigilance de mise
Si l’on ne doit pas sous-estimer l’impact et la puissance de tels outils dans une campagne électorale ou dans le cadre d’une mobilisation sociale, il serait erroné de leur attribuer la paternité première d’une victoire électorale ou de la réussite d’un mouvement social. Certes, ils peuvent effectivement contribuer à aller chercher les 2 % d’électeurs indécis qui font la différence entre une défaite et une victoire électorale, mais en aucun cas ils ne seront la cause d’un rapport de forces électoral. Ramener le Brexit et la victoire de Trump à Cambridge Analytica ou les Printemps arabes à Facebook a autant de sens que d’expliquer l’arrivée au pouvoir de Hitler par la radio ou la Révolution française par l’imprimerie à caractères mobiles. De plus, les modèles de profilage à partir des données personnelles sont bâtis sur des axiomes psychologiques et sociologiques souvent discutables et toujours marqués idéologiquement.
En Europe et particulièrement en France, avec le règlement européen 2016/679 sur la protection des données personnelles (RGPD) et la CNIL, nous restons théoriquement assez bien protégés d’usages abusifs des données personnelles dans le cadre électoral. Ainsi, en novembre 2016, la CNIL a fixé des règles très précises sur l’utilisation des données issues des réseaux sociaux dans le cadre de la communication politique5. Cependant, la vigilance doit rester de rigueur, car une extension du domaine d’application de la directive européenne sur le « secret des affaires » pourrait remettre en cause le cadre protecteur de la RGPD.

  1. A est en relation avec B, B avec C, C avec D…
  2. En 2018, la France comptait 38 millions d’utilisateurs actifs d’un réseau social . (source)
  3. Par exemple l’enquête réalisée en automne 2016 auprès des militants d’En Marche.
  4. Cambridge Analytica n’est pas qu’un courtier en données, cette firme mène aussi des campagnes d’influence, comme lors des élections en Argentine ou des actions de chantage politique comme en Ukraine.
  5. CNIL : Communication politique : quelles sont les règles pour l’utilisation des données issues des réseaux sociaux ?

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.