De la "guerre du sens" aux "faits alternatifs " - Vers la fin prochaine de la vérité dans le cyberespace ?

17/04/2021 - 14 min. de lecture

De la "guerre du sens" aux "faits alternatifs " - Vers la fin prochaine de la vérité dans le cyberespace ? - Cercle K2

Cercle K2 neither approves or disapproves of the opinions expressed in the articles. Their authors are exclusively responsible for their content.

Franck Decloquement est expert en intelligence stratégique, membre du CEPS et de la CyberTaskForce. Il est également enseignant à l'IRIS et à l'IHEDN.

---

DE LA "GUERRE DU SENS" AUX "FAITS ALTERNATIFS"

Vers la fin prochaine de la vérité dans le cyberespace ?

Dans cette nouvelle petite manufacture du sens qu’est indubitablement devenu le web 2.0, les pouvoirs publics se mobilisent face aux nouvelles "menaces à la vérité". Aussi, pourrons-nous encore croire demain tout ce que nous percevrons à travers le cyberespace ? 

"Actions sur les perceptions", "guerre du sens", "faits alternatifs" et "Deep Fake Reality" ? Quoi de neuf dans le champ des opérations de propagande à l’ère des plateformes sociales et du web 2.0 ? 

Dans nos démocraties occidentales en proie au doute systématique, au séparatisme communautaire et la tentation illibérale, la libre expression qui circule sur les réseaux dits aussi "sociaux", est à la fois un formidable mécanisme de contre-pouvoir et une chance de rééquilibrage démocratique, mais aussi une promesse de déstabilisation massive à échéance courte pour nos démocraties représentatives. Avec son florilège de vérités alternatives et contrefaites, l’affaire des gilets jaunes ou les tergiversations actuelles sur la bonne gestion de la crise pandémique de la Covid-19 en ont été – à ce titre – des démonstrateurs particulièrement marquants. Parce qu’elle est cette nouvelle "forge" de l’opinion publique, ce que les réseaux sociaux font à nos cerveaux suscite l’extrême convoitise des influenceurs publics, des bonimenteurs politiques et des législateurs qui cherchent naturellement à les mettre au pas, ou à en endiguer les scories. Mais la vie démocratique trouve toujours son chemin ! Et en l’occurrence, ce maillage systématique de l’opinion publique, qu’il émane des grandes plateformes elles-mêmes ou des pouvoirs publics à travers l’usage de méthodologies toujours plus fines d’ingénierie sociale ou de "Nudge Unit" mandatées pour quérir subrepticement le consentement de plus grand nombre, ne doit pas oblitérer pour autant le fait qu’à l’individu seul incombe en définitive le soin et la responsabilité de choisir ses informations, afin de juger au mieux de la compétence de ses édiles. En définitive, le discernement est notre ami ! 

Sur le plan international et intérieur, nos démocraties occidentales sont impliquées depuis plus d’une trentaine d’années dans des guerres d’empoignes où les communautés s’affrontent au nom de leurs valeurs propres, et revendiquent une légitimité politique ou idéologique qui justifierait leur combat. Et dans ce véritable malström pour la "guerre du sens" qui s’opère par médias interposés, rien de véritablement neuf sous le soleil en matière d’accaparement de la réalité. Si ce n’est la puissance accrue de ces opérations de falsification, augmentée cette fois par l’apport déterminant des nouvelles technologies digitales opérant le Web 2.0. Et dans ces nouveaux espaces de conflictualités délétères et de guérilla sémantique, les fausses nouvelles à des fins de propagande idéologique ou les deepfakes à visée parodique s’y épanouissent tout naturellement, à un rythme exponentiel. Cela représente évidemment un risque accru de désinformation pour nos concitoyens. Des discours trafiqués aux images truquées, les fausses nouvelles se propagent à un rythme accéléré à travers nos infrastructures digitales. Tromperie, assujettissement des consciences et brouillage des faits en constituent indubitablement le carburant. Les fameuses "deepfakes", pour ne citer qu’elles, se basent pour l’essentiel sur les avancées de l’intelligence artificielle (IA) et consistent très schématiquement à fusionner des vidéos les unes aux autres, dans le but de substituer notamment des visages et des sons par d’autres, afin de réaliser des trucages perceptifs pour orienter le sens de la compréhension, et la décision, parfois pour une noble cause – la fausse vidéo de Donald Trump réalisée par Solidarité Sida en est un exemple type – ou tout simplement pour faire sourire la multitude et régaler des auditoires à des fins parodiques. Mais, dans la majeure partie des cas, il s’agira bien au contraire de diffuser des informations erronées ou contrefaites, afin de discréditer telle personnalité en vue pour manipuler l’opinion publique à des fins de propagande idéologique. Cette tendance lourde ne devrait pas ralentir dans les prochaines années, dans ces espaces d’affrontement virtuels qui sont plus que jamais devenus le reflet de nos turpitudes collectives, d’autant plus à l’approche des prochaines élections présidentielles parfaitement déterminantes pour l’avenir de notre pays.

Au sein de l’écosystème attentionnel dans lequel nous sommes tous – peu ou prou plongés – selon le chercheur Yves Citton, s’accumulent irrémédiablement dans nos cerveaux des informations parfaitement disparates qui finissent tôt ou tard par converger et se combiner entre elles pour faire sens. Or, l’Art de "faire adhérer", de "faire croire" ou de "faire penser" dans le champ psychologique, prends désormais le pas sur l’Art de manœuvrer la force brute pour soumettre autrui à sa volonté dans le champ du réel. Plus soft, plus économique, moins violent d’apparence, soumettre autrui à sa volonté est ce que vise en définitive à produire ces opérations d’influence offensives subreptices 2.0, afin d’orienter la compréhension et la décision de l’adversaire, parfois même jusqu’à le faire œuvrer contre ses propres intérêts. Cette petite fabrique de l’opinion publique 2.0 ne cesse d’innover dans ses modalités d’actions subversives. La créativité sémantique et l’imagination des attaquants dans ce nouvel écosystème digital apparaissent sans limites. À titre d’exemple, les faits alternatifs ont fait une irruption marquante dans notre espace perceptif commun voilà quatre ans. Et ceci, lorsque Kelly-Anne Conway, conseillère spéciale du Président Trump, évoqua ce terme courant 2017 pour justifier les dires du porte-parole de la Maison-Blanche, Sean Spicer. Au lendemain de la cérémonie d’investiture du 45ème Président des États-Unis, celui-ci accusait en effet les médias d’opinion américains d’avoir volontairement sous-estimé les chiffres de la foule qui y assistait. Autrement dit, de remettre en cause l'importance de la participation publique lors de l'investiture du Président Trump. Or, les données disponibles d’alors montraient bien qu’il n’y avait pas eu autant de participants que cela aux réjouissances. Et, en tout état de cause, bien moins que pour celle de de son prédécesseur démocrate, Barack Obama. Sean Spicer ayant depuis admis que certains des chiffres qu'il avait mobilisés pour son argumentaire étaient incorrects, même s’il les avait crus pourtant exacts sur le moment. Plus prosaïquement, les "faits alternatifs" sont des mensonges ou des "bullshit" (bobards, sottises, stupidités, balivernes, conneries, affabulations, mensonges, crâneries), ayant pour intention principale de plier la réalité à des objectifs de propagande politique prédéfinis en amont, en la manipulant ou en la "façonnant" en fonction d’un "état final recherché" (EFR), selon une terminologie bien connue dans le champ de l’action psychologique à visées militaires. Ce qui change et interpelle dans l’exemple américain précédemment évoqué c’est cette capacité indubitable pour les parties prenantes à assumer le mensonge, et à faire mine de le considérer comme un élément quasi factuel. Nous sommes ici entré de plain-pied dans le registre du bobard pur et simple, utilisé sciemment comme "matériau de construction" d’une argumentation indubitablement falsificatrice, une "construction de la réalité" en somme, et selon les célèbres axiomes de l’école de pensée des théoriciens de la communication dite de Palo Alto, ve qui diffère grandement, avouons-le, d’une manipulation de masse classique, à la sauce Orwellienne, usant d’une novlangue appauvrissant à dessein le langage commun, pour mystifier le discernement d’une population dans son ensemble. On était habitués à ce que l’histoire soit réécrite par les vainqueurs dans les périodes post-conflits. Mais c’est dorénavant le passé immédiat et la trace mémorielle des évènements de la veille qui sont aujourd’hui susceptibles d’être instantanément réécrits et revus en quasi-temps réel. Et cela, alors même que tout le monde a pourtant encore ces faits bien en mémoire. Concernant les deepfakes, les avancées vertigineuses en matière d'intelligence artificielle (IA) et de deep learning permettent aujourd'hui de façonner ou de contrefaire le réel pour lui faire dire à peu près ce que l'on veut, ou presque ! Grâce à la puissance croissante des algorithmes "apprenants" et d’une puissance de calcul accrue, les deepfakes gagnent constamment en sophistication. Obligeant corrélativement dans la foulée les chercheurs en génie logiciel à perfectionner leurs outils de détection. Mais de quoi s’agit-il au fond ? Le terme "deepfakes" est encore très récent : il s’agit au demeurant d’une expression forgée en ajoutant au terme "fake" le terme "deep", pour "deep learning" (ou apprentissage profond). Un néologisme anglophone qui désigne en somme un ensemble de procédés techniques permettant aux intelligences artificielles d’apprendre à reconnaître des formes, des structures, des motifs, des objets, ou des personnes. Les anglophones parlent ici de "Patterns" : un terme polysémique ayant moult traductions en langue française. La "deepfake reality", quant à elle, découle en droite ligne de cet usage délétère et immersif "des outils du faux", par certains Etats ou groupes d’acteurs, pour convaincre des audiences-cibles. Des actions d’intelligence menées dans le but d’orienter ou de restreindre la réalité perçue d’une situation par autrui, en jouant sur le filtre de ses perceptions ou de ses biais cognitifs. Une forme de "guerre sans la faire" en somme, mais qui se livre indubitablement dans le champ psychologique de l’adversaire.

 

Pourrons-nous encore croire demain tout ce que nous verrons sur la toile et ses plateformes sociales ? 

Rien n’est moins sûr en effet, compte tenu de l’arsenal digital et d’outils de falsification aux mains des prédateurs. Et faute de la promesse tenue d’une "réalité augmentée", il se pourrait bien que nous nous dirigions à grands pas – compte tenu des avatars de la "Deepfake reality" – vert une réalité bien au contraire "diminuée", ou une version très "rabougrie" de celle-ci. Dans l’analyse classique qui est faite du cyberspace en trois couches, la composante sémantique ou informationnelle du cyber, recèle l’ensemble des informations qui transitent sur la toile. Et les enjeux stratégiques actuels se portent indéniablement vers la maîtrise de cette 3ème dimension informationnelle où s’opère justement la conflictualité, la contrefaction des faits n’y étant pas le moindre mal à gérer par les États occidentaux, pour preuve, les constats du document produit en 2018 par l’IRSEM et le CAPS sur les manipulations de l’information envisagées sans ambages comme "un défi absolu pour nos démocraties". 

À titre d’illustration, le grand classique de la littérature de George Orwell, 1984, que nous évoquions plus haut ne disait pas autre chose. Il figure toujours parmi les meilleures ventes de livres à travers le monde. L’auteur y préfigurait déjà en 1949, comment le pouvoir politique fictif qu’il dépeignait à travers son œuvre, contrôlait drastiquement les esprits et les cœurs de ses citoyens en manipulant sans vergogne la vérité des faits. Dans son Chapitre IX, Orwell y avait rédigé cette injonction parfaitement annonciatrice des périls qui nous guettent aujourd’hui : "pour diriger et continuer à diriger, il faut être capable de modifier le sens de la réalité". C’est en somme ce que sont en capacité de produire désormais tous ces moyens digitaux sur nos psychés. C’est entre autres le jeu auquel s’adonnent les régimes autoritaire et populistes à travers la planète, à l’ère du Web 2.0. Mais aussi, des grandes plateformes sociales américaines, en croissance constante de recrues partout dans le monde. Cette année "1984" fictive, promise par Orwell au siècle dernier, n’est-elle pas définitivement devenue notre réalité, avec ce présent aux relents de guerre froide que nous sert en filigrane l'Amérique de Joe Biden à travers la mise en œuvre d’une très subtile guerre du sens ? Mais aussi la Turquie de Recep Tayyip Erdoğan, ou la Russie de Vladimir Poutine, en pointes sur la désinformation, les actions de déstabilisation et de guérilla sémantique comme au bon vieux temps recouvré de l’Union Soviétique ? L'avenir glorieux que nous réserve la Chine de Xi Jinping n’est pas en reste, empreint de cette propagande communiste d’antan agissant désormais "hors limites", mais aujourd’hui matinée de technologies intelligentes dernier cri… Ne sommes-nous pas en train de basculer subrepticement dans une ère de "post-vérité intégrale" au risque de briser irrémédiablement sur ces récifs le socle de nos sociétés occidentales ? La question se pose indubitablement, un peu plus chaque jour. 

 

Ce business model des GAFAM peu compatible avec ce rôle de "Gendarme" que l’État français voudrait pourtant les voir endosser, à leur corps défendant, pour "filtrer" le sens commun sur leurs plateformes. 

Le paradoxe n’est pas mince. Et si Mark Zukerberg, le fondateur emblématique de la multinationale Facebook, accepte aujourd’hui de guerre lasse – à force de pressions renouvelées – l’augure d’un meilleur contrôle d’internet par les nations occidentales, sa posture affable peine à cacher la  vérité de son emprise croissante sur nos vies personnelles et collectives, mais aussi sur la mutation sur nos modèles de démocratie. Ravir nos attentions, les monétiser sans relâche et maintenir notre cognition individuelle captive dans les dédales digitaux via l’usage de "Dark Patterns", tel est bien – in fine – le grand jeu des plateformes dites "sociales" dans leur grande majorité. Le principe de ces Dark Patterns méconnus du grand public repose sur un précepte assez simple en définitive : inciter l’utilisateur lambda à faire une action qu’il n’aurait pas eu l’intention d’effectuer de lui-même sans être influencé… Et, si possible d’ailleurs, sans qu’il n’en ait conscience. Le but recherché étant, par exemple, de collecter ses données personnelles plus aisément, de lui faire ajouter des produits dans son panier d’achat en ligne, ou encore de lui faire passer plus de temps sur une interface spécifique afin d’améliorer le trafic du site. L’une des plus célèbres formes de Dark Pattern connues est le "Privacy Zuckering", en référence à Mark Zukerberg lui-même. Celle-ci s’opère principalement en coulisses, quand vous êtes très progressivement invité par la plateforme de réseautage social à partager publiquement beaucoup plus d'informations sur vous-même, que vous ne le souhaitiez initialement. Le sobriquet "Privacy Zuckering" a d’ailleurs finit par s’imposer aux États-Unis pour qualifier ce type de procédé obscur qui repose pour l’essentiel sur un "élément de design douteux" qui vise à orienter ou manipuler le choix de l’utilisateur en ligne. Ils s’opposent en cela à "l’UX éthique" (ou design éthique), qui consiste à penser et à concevoir un site web de manière à ce que "l'expérience utilisateur" soit privilégiée et demeure la meilleure possible. 

La commercialisation de nos données personnelles assure de gigantesques profits aux firmes géantes de la Tech, essentiellement américaines et toutes sous contrat avec le Pentagone. En réclamant en mars 2019 une intervention plus musclée des États dans la régulation du web, récidivant le 10 mai 2019 à l’Élysée aux côtés du Chef de l’État français, et prônant pour l’Europe "un nouveau modèle de régulation d’internet", Mark Zuckerberg approuvait dans la foulée l’appel de Christchurch contre les contenus terroristes, extrémistes et haineux, à l’initiative concertée de plusieurs dirigeants occidentaux, En outre, celle de la Première ministre néo-zélandaise Jacinda Ardern, et celle du Président français. Trompe l’œil que tout cela… Car derrière les bonnes intentions affichées, l’essayiste Bruno Patio résume impeccablement cette affaire d’encerclement cognitif  mis en œuvre par les plateformes sociales dans son ouvrage à succès, "la civilisation du poisson rouge" : "Les empires économiques ont créé une nouvelle servitude avec une détermination implacable. Au cœur du système, et au cœur de notre vie quotidienne, un projet caché : l’économie de l’attention. Augmenter la productivité du temps pour en extraire encore plus de valeur…". On évalue encore mal les conséquences exactes que  provoquent sur la durée ces technologies de rupture sur la fragile trame du tissu social de nos systèmes démocratiques. Et donc, sur la bonne tenue de leur cohésion générale, face à la production de contenus hautement déstabilisants. Mais aussi, leur impact général sur le développement de l’esprit critique des populations. Particulièrement des plus jeunes. L’accroissement de la crédulité générale étant bien entendu en ligne de mire des falsificateurs de tous poils, et autres promoteurs de "faux". Ne nous voilons évidemment pas la face : la diffusion des deepfakes – et dans leur sillage la "Deep Fake Reality" – n'est pas seulement un problème technologique qui pourra être résolu par un surcroit de technologie pour mieux les combattre. A contrario, les explications technophiles très orientées "business" d’un Mark Zuckerberg, qui promettaient déjà l'an dernier – et pour cause – de résoudre ce problème grâce à l’usage intensif d’une "IA plus performante", occulte en réalité un problème structurel crucial infiniment plus prosaïque. La croisade de du fondateur de Facebook cache indubitablement l’emprise indéniable des GAFAM sur nos vies. Le modèle économique initialement adopté par les plateformes sociales comme la sienne, exploite en réalité ardemment ce type de contenus contrefaits pour mieux prospérer par ailleurs. Et en la matière, le bon sens commanderait évidemment de ne pas confier "les clefs du poulailler" à "Maître Renard", comme le font régulièrement nos décideurs politiques, en espérant qu’il assurera loyalement et en toute quiétude la surveillance des gallinacées ! Gageons que Jean de La Fontaine aurait aussi trouvé à y redire...

La nouvelle puissance des réseaux sociaux assument indéniablement une sorte de cinquième pouvoir, à côté de celui des médias audiovisuels et de la presse écrite traditionnelle. Mais elle oblige aussi la responsabilité accrue et "la vigilance 2.0" de tous nos élus. Sans filtrage éditorial apparent, les faits et les opinions se bousculent dans les groupes Facebook, les threads de Twitter, les vidéos YouTube ou TikTok. Et cette révolution silencieuse qui imprègne désormais toutes nos perceptions, oblige lourdement nos élites politiques à de nombreux examens de conscience. Pour l’heure malheureusement, leurs nombreuses recommandations ont fait chou blanc auprès des décideurs politiques successifs, plus adeptes d’imposer un filtrage et une centralisation accrue du Web, mais malheureusement opérés par ces plateformes elles-mêmes... Une alliance impossible par nature, tel le mariage de la carpe et du lapin. Le tout confinant véritablement chez nos décideurs à un syndrome de Stockholm vis-à-vis des GAFAM, de l’avis général des plus fins experts de la toile. "Big Data électoral" à venir oblige pour certains ? Et en la matière, les GAFAM restent définitivement les meilleurs alliés politiques pour qui souhaite profiter à plein de leur puissance d’analyse et de calcul pour circonscrire et capter l’électeur. Alors, autant de pas les fâcher ? Si tel est le calcul, triste tropisme… 

 

Pour ne pas conclure

Ces plateformes géantes en tant qu’opérateur agissant sur nos perceptions, remettent profondément en cause les mécanismes fragiles de nos démocraties représentatives qu’elles érodent indubitablement. Et ceci, sans véritablement mesurer leur impact délétère sur l’organisation générale de nos modèles de sociétés, qui repose indubitablement sur des élections libres et non faussées, et la garantie du pluralisme des opinions exprimées à travers les débats contradictoires d’une presse que l’on aimerait imaginer toujours intègre… Dans la période précédente, très peu de spécialistes ont en réalité anticipé à quel point la désinformation en ligne, le trolling généré par des fermes à trolls aux mains de nos adversaires stratégiques, les attaques virales à la réputation, les opérations de falsifications des faits, de déstabilisations et de propagande noire perturberaient le processus démocratique de nos états dans leur ensemble. Pouvant même aller jusqu’à ronger et déchirer le fragile tissu social d’une nation, dans certaines circonstances d’extrêmes tensions. Par exemple, en période de pandémie virale... À l’approche des prochaines échéances électorales dans les pays occidentaux, et particulièrement en France, une vigilance grandissante des pouvoirs publics se fait jour face aux nouvelles "menaces à la vérité". Le tout, dans un écosystème d’informations déjà très fragilisé par les affres de la puissante transformation digitale en cours, des mouvements de contestation sociale et des luttes fratricides entre puissances économiques rivales. On pense à la Chine, à la Russie et naturellement aux États-Unis d’Amérique… Nos chers alliés. 

 

Franck Decloquement

17/04/2021

Last publications