Egalité Numérique

📢 Nous devons tous comprendre les enjeux du numérique et de l'intelligence artificielle (IA)

car nous sommes tous concernés individuellement et comme citoyen, 
même si nous ne sommes pas à l'aise avec Internet.
 

Ce site a pour objectif de donner quelques pistes de réflexions sur les enjeux et risques liés à cette technologie

Lutter contre la désinformation, pour notre démocratie, et contre l'IA slop

03/02/2026

Lutter contre la désinformation, pour notre démocratie, et contre l'IA slop

Cet article présente succinctement le cheminement allant des faits, des informations reçues, des débats, de la formation de nos opinions dans le cadre démocratique.

Il résume dans un deuxième temps la méthode préconisée pour lutter contre les pressions des réseaux sociaux et certaines applications numérique, pressions subies par notre psychisme, et pour lutter contre la désinformation. 

L'arrivée de "l'AI Slop" est explicitée. (Par "slop", nous désignons un média de mauvaise qualité, comprenant des textes, des sons et des images, réalisé à l'aide d'une technologie IA générative)

En fin d'article,  vous trouverez quelques adresses de sites pour s’informer et comprendre : la cybermalveillance, la désinformation, et pour identifier l’origine d’une information virale, d’une photo ou d’une vidéo hyper-truquée (« deepfake »).s

La première question à se poser, quand nous prenons connaissance de faits, est : Quelle est l'intention de celui qui nous la donne ? Et apprenons à distinguer la désinformation, la mésinformation, et mal information
• Désinformation : informations fausses et délibérément créées pour nuire à une personne, un groupe social, une organisation ou un pays.
• Mésinformation : informations fausses mais non créées dans l'intention de nuire.

• Mal information : informations basées sur la réalité, utilisées pour infliger un préjudice à une personne, un groupe social, une organisation ou un pays (sources Unesco).

 

Cheminement allant des faits à la formation de nos opinions

Donnons deux exemples de moyens de diffuser de la fausse information:

 

Vérification de l'information et manipulation de nos opinions

 

Nous devons donc apprendre à vérifier les informations que nous recevons, et devenir des "fact checkers" permanents.

 

Les plateformes profitent d’un statut privilégié de simples canaux de partage d’informations. En effet au nom de l’article 230 du Communications Decency Act, voté en 1996, les plateformes ne peuvent être poursuivies en justice pour les contenus publiés par leurs utilisateurs. Ce régime est complètement distinct de celui des médias, tels les journaux, qui sont tenus à une responsabilité éditoriale.

Les « réseaux sociaux » et de nombreux site internet sont, pour beaucoup d'entre nous, le « carburant » de nos réactions intuitives, de nos affects, en stimulant la production de dopamine, et en  nous enfermant dans des bulles d’informations parfois non vérifiées, parcellaires ou fausses.  David Chavalarias publie en 2022 « Toxic Data », tout y est très simplement expliqué : Comment les mouvements d’opinion sont aujourd’hui hautement manipulés et amplifiés sur les réseaux ou les messagerie au point que nos démocraties vont y laisser leur peau.

En 2016, "les mathèmaticiens de  Cambidge Analytica font effacement campagne pour le oui  au Brexit avec leurs algorithmes d'influence en ligne personnalisée. Quelle humiliation pour la psyché humaine de voir ces modèles réduisant nos subtiles personnalités à cinq nombre, mesurant ouverture, conscienciosité, extraversion, amabilité, neuroticisme, pour mieux nous manipuler" (extrait podcast Radio France, épisode 3 "intelligence artificielle : utopie dystopique" de Cédric Villani). 

La Boétie décrit, dans son "Discours de la servitude volontaire", l'obéissance des peuples à la tyrannie, expliquant que celle-ci est maintenue par l'habitude, la corruption et la bêtise, plutôt que par la force. 

La tyrannie, exercée sur notre psychisme des réseaux sociaux et de certaines applications internet, doit être combattue !

 

Pour la démocratie, les débats sont nécessaires,

Un minimum d’empathie envers ses concitoyens est une condition indispensable pour un débat serein. Certains politiciens ont une autre opinion sur l'intérêt des débats serein : 

« La faiblesse fondamentale de la civilisation occidentale est l’empathie »

expliquait Elon Musk dans un interview sur le podcast de Joe Rogan. 

 

 

L'émergence d'une IA SLOP, média de mauvaise qualité

Le slop (aussi appelé AI Slop) est un média de mauvaise qualité, comprenant des textes, des sons et des images, réalisé à l'aide d'une technologie d'intelligence artificielle générative. Inventé dans les années 2020, le terme a une connotation péjorative proche de celle de « spam ». Les contenus des « slops » sont ensuite réingérés dans les IA, et le cycle continue.

Citons l’article de Hubert Guillaud sur le texte de  la chercheuse Kate Crawford dans une tribune pour e-flux , « Vers l’effondrement métabolique » du 19 septembre 2025 (dans la Lettre hebdomadaire de café IA):    

(1) L’industrialisation de contenus synthétiques réalisés à l'aide de l’IA

« Les producteurs de contenus synthétiques atteignent des taux d’engagements supérieurs aux influenceurs humains qui semblent de plus en plus indiscernables des humains, comme l’était, dès 2018, l’une des premières influenceuses synthétiques, Lil Miquela. Les équipes de création de contenu déploient des outils d’IA pour générer des centaines de publications, d’images et de vidéos potentielles, puis utilisent l’analyse de l’engagement pour identifier les combinaisons les plus addictives afin de les optimiser. L’industrialisation du contenu viral s’auto-accélère. Les fonds destinés aux créateurs de contenus se transforment en subvention du seul contenu synthétique, à l’image de TikTok ou Meta qui sponsorisent les usines à slops en distribuant des revenus du fait de leur viralité… »

(2) Effondrement de l’IA slop ?

« L’évolution vers une IA générative massive et gourmande en données affecte l’environnement, le travail, la culture, la science … Les LLM sont en train de supplanter les sources d’information en ligne, cannibalisant les marchés de la création de contenu….De nombreuses études ont montré que les systèmes d’IA dégénèrent lorsqu’ils se nourrissent trop de leurs propres productions – un phénomène d’effondrement que les chercheurs appellent MAD (La maladie du modèle autophage). En d’autres termes, l’IA s’autodétruira, puis s’effondrera progressivement dans le non-sens et le bruit….’’L’IA slop n’est pas une aberration, mais une caractéristique inévitable du fonctionnement des médias génératifs’’. Cette rupture métabolique promet de multiples effondrements, prédit la chercheuse : effondrement des modèles, effondrement écologique et effondrement cognitif s’entrecroisent dans une forme de polycrise. »

 

Dégradation du paysage informationel

 

Prenons la mesure de la dégradation du paysage informationel à cause de la montée en puissance des IA génératives et la prolifération du slop.

 

  1. L’apparition de contenus absurdes et viraux produits très facilement par des outils comme Sora, Veo ou Runway Gen qui permettent à quiconque de créer des vidéos hyperréalistes. La distinction du vrai du faux n’est pas facile.
  2. Le changement d’attitude des consommateurs d’information en ligne :  

    Les assistants IA remplacent déjà les moteurs de recherche pour de nombreux utilisateurs. Selon le Digital News Report 2025 de l'Institut Reuters, 15 % des moins de 25 ans utilisent des assistants d'IA pour s'informer, contre 7 % de l'ensemble des consommateurs d'informations en ligne. » 

  3. L'énorme volume  de contenus générés par IA dans le web :
    «Plus de 1000 médias en français, générés par IA, polluent le web (et Google)», titrait Next en février dernier. 14 à 16 millions d'internautes français consultent chaque mois l'un des 251 sites d'infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d'infos GenAI que de vrais sites d'actualités. 77 % y sont envoyés par l'un des services de Google (Discover, Search ou Actualités), et 10 % via Meta. 
    Plus de la moitié des articles mis en ligne dans l’espace d’une journée sont créés sur des IA, d’après une étude de l’agence Graphite, publiée courant octobre et basée sur l’analyse de 65000 textes. Ces articles :
    • sont  souvent des plagiats remixés d’enquêtes journalistiques datant parfois de plusieurs mois
    • ont aussi la particularité d’être publiés sur des sites zombies. Il peut s’agir de médias étudiants ou locaux laissés à l’abandon, ou d’anciens sites d’entreprises de livraison de fruits et légumes ou de promotion d’événements passés dont l’URL a été récupérée.
    • seraient pour le moment largement invisibles et peu recommandés par Google ou ChatGPT.

Pour plus d’information, voir le site de la Fondation Nieman pour le journalisme, une institution majeure de l'Université de Harvard, visant à promouvoir et élever les normes du journalisme.

 

 

  • L’accès sur internet à des articles issues d’une source « vérifiée » est pas facile
    • l’information relayée par les «moteurs de réponses» se trouve bien souvent dégradée. D’après une étude dirigée par la BBC, publiée le 22 octobre, 45% des réponses données par ChatGPT, Copilot, Gemini et Perplexity (sur 3000 requêtes analysées) présentaient au moins un problème important, tandis que 31% des réponses révélaient de graves problèmes de sourcing.
    • La distinction entre les sites générés par de vrais sites de presse et issues d’un travail journalistique et les sites zombies diffusant des articles générés par des IA Slop n’est pas faite par le principal pourvoyeur d’audience, l’agrégateur Google Discover. Les pages des sites zombies sont souvent suffisamment optimisées en SEO pour pouvoir apparaître dans l’agrégateur Google Discover.
  • Les médias traditionnels sont en difficultés pour diversifier leurs sources de revenus (dû en particulier au bouleversement du marché des recettes publicitaires, et à la force algorithmique des grandes plateformes qui recommande le contenu sur les pages que vous consutez), ou sont rachetés par des actionnaires très riches peu scrupuleux sur la nécessité d’une information vérifiée par des « fact checkers » reconnus.

 

  • Rappelons la situation actuelle de notre dépendance à des entreprises américaines ou chinoises propriétaires des réseaux sociaux qui n’assument pas le statut d’éditeurs de contenu, mais qui nous imposent leur ligne éditoriale par l’intermédiaire de leurs algorithmes. Seuls les contenus recommandés par leurs algorithmes sont vus, les autres demeurent invisibilisés. Ces algorithmes sont élaborés en toute opacité, basés sur des calculs purement quantitatifs arrimés à des objectifs commerciaux ou politiques, par une poignée d’acteurs privés qui effectuent le tri entre les contenus visibles et ceux que personne ne verra. Dans un article du journal Le monde du 10 janvier 2026, à l’approche de la présidentielle de 2027, Arthur Mensch, fondateur et dirigeant de Mistral AI (start-up française) alerte sur le risque de voir se former un « oligopole de l’information » avec des assistants IA comme ChatGPT ou Grok, détenus par des acteurs américains et possibles « organes de contrôle de la pensée »… Et de prédire pour les prochaines élections des tentatives de manipulation de l’opinion ou des scandales, comme la récupération de millions de profils Facebook par l’agence Cambridge Analytica lors de la première campagne présidentielle de Donald Trump, en 2016, à l’époque où « on ne mesurait pas encore très bien l’influence des réseaux sociaux ». 

 

Quelques chiffres de mesure de ce phénomène d'IA Slop

Jean-Marc Manach, Next.ink, 18 décembre 2025 soulignait la «véritable "pollution" numérique et médiatique» et évoquait prés de 10 000 sites d’information en français générés par IA

«Plus de 1000 médias en français, générés par IA, polluent le web (et Google)», titrait Next en début (février) 2025, et courant 2025, 8900 sites ont été identifiés comme «en tout ou partie générés par IA» (GenAI), administrés (et monétisés) par plus de 200 éditeurs.

Début octobre, Next révélait que près de 20% des 1000 sites d'info les plus recommandés par Google Discover, et 33% des 120 sites les plus recommandés par Google News, à la rubrique Technologie, étaient générés par IA. L'algorithme Discover de «recommandation de contenus» de Google, la principale source de trafic des sites journalistiques français, est en effet devenu une «pompe à fric» pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google.

Mesure d’audience des sites recommandés par Google Discover :
% de la population consultant des sites d’information générées par l’IA, dit sites « GenAI »

 

% de la population fin 2025 consultant des sites GENAI

Source : Next et le Groupement des éditeurs de services en ligne (http://www.geste.fr/ , groupement fondé en 1987 qui représente et défend les intérêts des éditeurs de contenus et services en ligne, en analysant les mutations économiques et législatives du secteur numérique, dont le Président est Bertrand Gié, Directeur délégué du pôle News du Groupe Figaro, et qui regroupe 104 membres, incluant les plus grands groupes de presse français), et l'entreprise de mesure d'audience Médiamétrie ont cherché à quantifier le phénomène à l’échelle du marché, en d'analysant l'audience des 251 sites GenAI figurant ou ayant figuré dans le Top1000 des sites recommandés par l'algorithme Discover de Google. Analyse faite sur un panel de près de 20000 internautes constitué par Médiamétrie indique que les 251 sites « GenAI » figurant ou ayant figuré dans le Top1000 des sites recommandés par l'algorithme Discover de Google.

 

👉 Les inactifs, en particulier les personnes âgées, semblent en effet plus particulièrement susceptibles de tomber dans le piège de ce type d'infox et images GenAI, au point d'être qualifiées de «pièges à boomers», ou «boomer traps»

 

 

La frontière entre vrai et faux s’efface chaque jour davantage.

Pour aller plus loin : lire les articles

 

Nos conseils pour lutter contre 
la désinformatio
n et   "WEB-IA Slop" 

 

👉  A notre niveau personnel : Nos actions au fil de l’eau de nos usages d’internet

 

Prise de conscience des conséquences néfastes des interfaces numériques et des algorithmes des plateformes

  1. En matière de liberté : Les interfaces de ces systèmes numériques construits à base d'IA « peuvent masquer nos réelles possibilités d’agir ou orientent nos décisions, et restreindre peu à peu notre autonomie »
  2. En matière de santé, citons « les processus compulsifs et addictifs … en jeux »
  3. En matière d’écologie, la consommation énergétique de tous les algorithmes, matériels et infrastructures numériques, leur modes de fabrication utilisnat de l'eau et des métaux rares, et l’incitation à la sur-consommation ne vont pas dans le sens du respect des principes écologiques.
  4. En matière de démocratie, ces systèmes pour certains « sapent l’apprentissage du débat contradictoire au profit du clash et de la violence verbale sur Internet. En effet, ces processus de captation de l’attention… ont tendance à favoriser les contenus choquants et les fausses informations, à polariser les utilisateurs, et à réduire leur capacité à comprendre d’autres points de vue, et même à le vouloir. L’économie de l’attention atrophie notre capacité à partager des idées, à échanger, bref, appauvrit notre expérience du monde ».

 

Choix de vos sources numériques d'information  
Choix de nos applications numériques / plateformes les plus « éthiques », et moins néfastes à l’environnement et à la protection de vos données personnelles : 

    1. Exemple : Messagerie concurrent de Whatsapp, Navigateur et Moteur de recherche (Quant, ….),
    2. Identifier les modèles d’IA peu gourmande en données et énergie…
    3. Il existe des médias gratuits qui affichent leur volonté de diffuser une information vérifiée (comme Hugo Decrypt). L'un des enjeux réside dans notre définition d’une "information de qualité" : Nous devons nous impliquer mieux et davantage dans cette définition. 

Vérification de l’information / lutte contre les deepfakes 

    1. Vérifier les informations écrites, les images et vidéos et sons, que vous recevez :
      1. en premier lieu avec votre analyse de bon sens et une observation attentive pour repérer des éléments suspects de l’information reçue, soyons conscient de nos propres biais (nous aimons souvent nous divertir avec des informations que nous ne questionnons pas assez)
      2. en vous posant les questions : Qui est l’émetteur du message reçu ? Qui est derrière la plateforme  ou le site ? Qui finance cette diffusion d’information ?
      3. en recoupant cette information avec d’autres sources que vous jugez fiables,
      4. ou en vous faisant aider d’outils disponibles sur internet (voir ci-dessous)
    1. Ne partager cette information sur vos réseaux ou par mail qu’après cette phase de vérification

Adoption d'une posture de responsabilité :

  1. Exiger et s'imposer une rigueur évaluative des outils que nous utilisons pour s'informer, 
  2. Soyons prêt à dépenser un peu d’argent pour accéder à des sites fiables (La presse écrite, audiovisuelle ont en très grande majorité des contrats avec des « fact checkers » (vérificateur d’information, comme l’AFP…). Quand un site est « gratuit », cherchez à comprendre son modèle économique. Produire de l’information « vérifiée » coûte de l’argent. 

 

👉  A notre niveau de citoyen, consommateur, investisseur :

 

 

💡 Comme citoyen, participer aux réflexions, et actions nécessaires à la gouvernance du numérique ;

    1. Exprimer vos demandes aux politiques qui doivent concevoir nos lois numériques et les faire appliquer (en particulier lors des différentes élections), comme par exemple obliger les réseaux sociaux commerciaux à s’ouvrir à d’autres services de recommandation de contenus, laissant aux utilisateurs la liberté de choisir quel système leur recommande les contenus, selon quels critères et dans quel but.
    2. Demander à l’Etat ou/et aux administrations territoriales de :
      1. nous informer et former correctement, pour nous protéger des risques de l’IA,
      2. avec la mise en place de structures-organisations adéquates au niveau État, départemental 
      3. en utilisant des produits européens, ou "non liés à une puissance étrangère hostile"
      4. et comme le préconise Ethan Zuckerman, directeur de l’infrastructure numérique de l’Etat, participer à la mise en place de média alternatifs sociaux non surveillants, construits sur des déploiements algorithmiques basés sur l’analyse de contenus qui œuvre au « bien commun », plutôt que sur l’analyse des visiteurs.
        Il reste que le financement de ces services d’intérêt général, indispensable à la démocratie, et leur gouvernance indépendante de l’État est à inventer.

Remarque : Pour mémoire, rappellons l’expérience de la radio dans les années 30. John Reith a imaginé une radio publique, la BBC, qui ne soit contrôlé ni par les états, ni par les entreprises, financé par l’État, mais indépendante du gouvernement. Il propose de mettre en place des services publics de la communication démocratique. Et Il existe aujourd’hui des services mondiaux numériques non commerciaux Wikipedia, Openstreet ou Signal.

c. « Sapere aude ! » (Ose savoir !) … pour réfléchir à l’IA et être citoyen
« Sapere aude ! » ..écrivait Emmanuel Kant en 1784 …Connaître la vérité est un choix. Ce n’est pas facile, et c’est presque toujours douloureux.  La pensée n’est pas un privilège réservé aux experts. C’est le premier acte de résistance. Et elle est à la portée de tous. » (Extrait article Grand Continent 28/12/2025 Mariam Martínez-Bascuñánm). Nous n’avons pas besoin d’être informaticien pour réfléchir la révolution qu’est l’intelligence artificielle.

 

👉Comme investisseurs et consommateur :

      1. 💡investir et soutenir les réseaux sociaux alternatifs non-commerciaux et décentralisés. 
      2. 💡investir dans la recherche et le développement de systèmes qualitatifs et citoyens. Différents systèmes de recommandations pourraient être développés par des médias, des institutions académiques, des acteurs associatifs, qui se verraient ainsi dans la capacité de recommander des contenus selon des critères diversifiés et transparents, qui s’appuient sur les avis de différentes communautés de pairs. Et comme investisseur ou membres d'associations, nous pourrions collaborer à la mise en place :
        1. de label « site d’information vérifiée » avec des « fact checkers » (vérificateur d’information, comme l’AFP…), ou
        2. de « réseau social avec un organe modérateur reconnu et labélisé » ou
        3. d'une notation « éthique » des sites et réseau sociaux sur le respects de nos lois et ceux de l’Europe (DSA, DMA, RGPD, IA Act)
      3. 💡Participer à une action collective de choix ou de refus de produits « gratuits ». Evitez X, Instagram, Facebook... et nous aider les uns les autres à devenir un consommateur "éthique" du numérique.

 

 

 

Pour conclure sur cet effort que nous devons tous faire, citons un extrait de l'article extrait article Grand Continent du 28/12/2025 de Máriam Martínez-Bascuñánm :

 « …la sortie de l’ère de la post-vérité ne passe pas seulement par le rétablissement de la crédibilité de la presse ou la restauration de l’intégrité des institutions. Il faut aussi une citoyenneté qui ne se laisse pas tenter par le confort des certitudes préfabriquées ou par l’écho réconfortant de la tribu. 

Connaître la vérité est un choix. Ce n’est pas facile, et c’est presque toujours douloureux. 

Mais c’est un choix. Arendt a proposé comme modèle de citoyen pensant quelqu’un qui n’était ni philosophe de profession ni sage reconnu : Socrate, « un citoyen parmi les citoyens, qui n’a rien fait ni prétendu, sauf ce que, selon lui, tout citoyen a le droit d’être et de faire ».  La pensée n’est pas un privilège réservé aux experts. C’est le premier acte de résistance. Et elle est à la portée de tous. »

Nous devons exiger le contrôle du "processus technicien" dont le numérique est un terrain de prédilection. Celui-ci - de fait - poursuit son développement de façon incontrôlée ("on n'arrête pas le progrès", mais il faut combattre les usages nocifs de la technique). 

 

 

 

Quelques sites à connaître

Pour aller plus loin sur ce thème de l'IA Slop, voir la conférence d' Ethan Zuckerman à Sciences Po du 17.05.2022  : "Nous devons imaginer un meilleur internet"

 

Pour vous informer sur la cyber-malveillance, nous vous conseillons d'aller sur le site du gouvernement : 

Assistance aux victimes de cybermalveillance | Site Officiel

 

Quelques sites pour s’informer et comprendre la désinformation, et pour identifier l’origine d’une information virale, d’une photo ou d’une vidéo hyper-truquée (« deepfake ») 

 

 

  • Le site français De facto (https://defacto-observatoire.fr/ ) est le premier espace indépendant où chercheurs, journalistes et professionnels de l’éducation aux médias et à l’information unissent leurs efforts dans la lutte contre la désinformation. Son ambition est de promouvoir la qualité de l’information – essentielle pour nos démocraties -, la diversité du débat public et la régulation des plateformes numériques.

 

  • Le site de l’Europe (UE) pour comprendre la désinformation pilotée par la Russie
    EU vs Disinfo,   Site du Service européen (partie du service diplomatique de l’UE, dirigé par le haut représentant de l’UE) pour contrer la désinformation de la Russie. Ce site est le travail du  groupe de travail East Stratcom, une équipe constituée d’experts qui ont principalement suivi une formation en communication, journalisme, sciences sociales et étude de la Russie.

 

    • Pour simple information citons le dispositif européen RAS - Rapid Alert System. : Le système d’alerte rapide (RAS) est un élément important de l’approche globale de l’UE pour lutter contre la désinformation, et est un des quatre piliers du Plan d’action contre la dés-information approuvé par le Conseil Européen en décembre 2018. Il a été établi pour promouvoir le partage des connaissances entre les institutions de l’UE et les États membres en ce qui concerne les campagnes de désinformation et de coordonner les réponses. Le RAS de base sur des informations en open source et s’appuie également sur les connaissances du monde universitaire, des vérificateurs de faits (fact checker), des plateformes en ligne et des partenaires internationaux. 

 

👉  En Anglais ; 2 sites pour vérifier une image ou une vidéo 

 

  • Deepware   (en anglais) qui permet de reconnaître les vidéos « hyper-truquée » (deepfake),

 

  • TinEye - : Vous vous interroger que l’origine d’une image : Vous pouvez effectuer une recherche par image ou ce que TInEye appele une recherche inversée d’image. Vous pouvez le faire en téléchargeant une image ou en recherchant par URL. Vous pouvez aussi simplement glisser-déposer vos images pour commencer votre recherche. TinEye fait constamment le crawl du web et ajoute des images à son index. Aujourd’hui, l’indice TinEye compte plus de 72,1 milliards d’images.

 

 

 

 

 

contact@egalitenumerique.fr

12 rue du Moulin de Coudret
16140 Oradour

Par e-mail

Par courrier