📢 Nous devons tous comprendre les enjeux du numérique et de l'intelligence artificielle (IA)
car nous sommes tous concernés individuellement et comme citoyen,
même si nous ne sommes pas à l'aise avec Internet.
Ce site a pour objectif de donner quelques pistes de réflexions sur les enjeux et risques liés à cette technologie
03/02/2026
Cet article présente succinctement le cheminement allant des faits, des informations reçues, des débats, de la formation de nos opinions dans le cadre démocratique. L'arrivée de "l'AI Slop" est explicitée. (Par "slop", nous désignons un média de mauvaise qualité, comprenant des textes, des sons et des images, réalisé à l'aide d'une technologie IA générative). Il résume dans un deuxième temps la méthode préconisée pour lutter contre les pressions des réseaux sociaux et certaines applications numériques, pressions subies par notre psychisme, et pour lutter contre la désinformation.
En fin d'article, vous trouverez quelques adresses de sites pour s’informer et comprendre : la cybermalveillance, la désinformation, et pour identifier l’origine d’une information virale, d’une photo ou d’une vidéo hyper-truquée (« deepfake »).
(1) Prise d'information sur les faits
La première question à se poser, quand nous prenons connaissance de faits, est : Quelle est l'intention de celui qui nous la donne ? Et apprenons à distinguer la désinformation, la mésinformation, et mal information
• Désinformation : informations fausses et délibérément créées pour nuire à une personne, un groupe social, une organisation ou un pays.
• Mésinformation : informations fausses mais non créées dans l'intention de nuire.
• Mal information : informations basées sur la réalité, utilisées pour infliger un préjudice à une personne, un groupe social, une organisation ou un pays (sources Unesco).

![]() |
![]() |
Nous devons donc apprendre à vérifier les informations que nous recevons, et devenir des "fact checkers" permanents, suivant les 2 sources d'informations aujourd'hui : Les plateformes sur internet et les sources traditionelles (journaux, radio, télé...)

Les plateformes profitent d’un statut privilégié de simples canaux de partage d’informations. En effet au nom de l’article 230 du Communications Decency Act, voté en 1996, les plateformes ne peuvent être poursuivies en justice pour les contenus publiés par leurs utilisateurs. Ce régime est complètement distinct de celui des médias, tels les journaux, qui sont tenus à une responsabilité éditoriale.
Les « réseaux sociaux » et de nombreux site internet sont, pour beaucoup d'entre nous, le « carburant » de nos réactions intuitives, de nos affects, en stimulant la production de dopamine, et en nous enfermant dans des bulles d’informations parfois non vérifiées, parcellaires ou fausses. David Chavalarias publie en 2022 « Toxic Data », tout y est très simplement expliqué : Comment les mouvements d’opinion sont aujourd’hui hautement manipulés et amplifiés sur les réseaux ou les messagerie au point que nos démocraties vont y laisser leur peau.
En 2016, "les mathèmaticiens de Cambidge Analytica font effacement campagne pour le oui au Brexit avec leurs algorithmes d'influence en ligne personnalisée. Quelle humiliation pour la psyché humaine de voir ces modèles réduisant nos subtiles personnalités à cinq nombre, mesurant ouverture, conscienciosité, extraversion, amabilité, neuroticisme, pour mieux nous manipuler" (extrait podcast Radio France, épisode 3 "intelligence artificielle : utopie dystopique" de Cédric Villani).
La Boétie décrit, dans son "Discours de la servitude volontaire", l'obéissance des peuples à la tyrannie, expliquant que celle-ci est maintenue par l'habitude, la corruption et la bêtise, plutôt que par la force.
La tyrannie, exercée sur notre psychisme des réseaux sociaux et de certaines applications internet, doit être combattue !
Un minimum d’empathie envers ses concitoyens est une condition indispensable pour un débat serein. Certains politiciens ont une autre opinion sur l'intérêt des débats serein :
« La faiblesse fondamentale de la civilisation occidentale est l’empathie »
expliquait Elon Musk dans un interview sur le podcast de Joe Rogan.

L'émergence d'une IA SLOP et
la dégradation du paysage informationnel
(1) L'émergence d'une IA SLOP, média de mauvaise qualité
Le slop (aussi appelé AI Slop) est un média de mauvaise qualité, comprenant des textes, des sons et des images, réalisé à l'aide d'une technologie d'intelligence artificielle générative. Inventé dans les années 2020, le terme a une connotation péjorative proche de celle de « spam ». Les contenus des « slops » sont ensuite réingérés dans les IA, et le cycle continue.
Citons l’article de Hubert Guillaud sur le texte de la chercheuse Kate Crawford dans une tribune pour e-flux , « Vers l’effondrement métabolique » du 19 septembre 2025 (dans la Lettre hebdomadaire de café IA):
L’industrialisation de contenus synthétiques réalisés à l'aide de l’IA
« Les producteurs de contenus synthétiques atteignent des taux d’engagements supérieurs aux influenceurs humains qui semblent de plus en plus indiscernables des humains, comme l’était, dès 2018, l’une des premières influenceuses synthétiques, Lil Miquela. Les équipes de création de contenu déploient des outils d’IA pour générer des centaines de publications, d’images et de vidéos potentielles, puis utilisent l’analyse de l’engagement pour identifier les combinaisons les plus addictives afin de les optimiser. L’industrialisation du contenu viral s’auto-accélère. Les fonds destinés aux créateurs de contenus se transforment en subvention du seul contenu synthétique, à l’image de TikTok ou Meta qui sponsorisent les usines à slops en distribuant des revenus du fait de leur viralité… »
Effondrement de l’IA slop ?
« L’évolution vers une IA générative massive et gourmande en données affecte l’environnement, le travail, la culture, la science … Les LLM sont en train de supplanter les sources d’information en ligne, cannibalisant les marchés de la création de contenu….De nombreuses études ont montré que les systèmes d’IA dégénèrent lorsqu’ils se nourrissent trop de leurs propres productions – un phénomène d’effondrement que les chercheurs appellent MAD (La maladie du modèle autophage). En d’autres termes, l’IA s’autodétruira, puis s’effondrera progressivement dans le non-sens et le bruit….’’L’IA slop n’est pas une aberration, mais une caractéristique inévitable du fonctionnement des médias génératifs’’. Cette rupture métabolique promet de multiples effondrements, prédit la chercheuse : effondrement des modèles, effondrement écologique et effondrement cognitif s’entrecroisent dans une forme de polycrise. »
Quelques chiffres de mesure de ce phénomène de "pollution" numérique et médiatique»
L’accès sur internet à des articles issues d’une source « vérifiée » est pas facile
Jean-Marc Manach, Next.ink, 18 décembre 2025 soulignait l'ampleur de ce phénomène :
Mesure d’audience des sites recommandés par Google Discover :

Source : Next et le Groupement des éditeurs de services en ligne (http://www.geste.fr/)
👉«pièges à boomers», ou «boomer traps» : Les inactifs, en particulier les personnes âgées, semblent en effet plus particulièrement susceptibles de tomber dans le piège de ce type d'infox et images GenAI, au point d'être qualifiées de «pièges à boomers», ou «boomer traps».»
Rappelons la situation actuelle de notre dépendance à des entreprises américaines ou chinoises propriétaires des réseaux sociaux qui n’assument pas le statut d’éditeurs de contenu, mais qui nous imposent leur ligne éditoriale par l’intermédiaire de leurs algorithmes. Seuls les contenus recommandés par leurs algorithmes sont vus, les autres demeurent invisibilisés. Ces algorithmes sont élaborés en toute opacité, basés sur des calculs purement quantitatifs arrimés à des objectifs commerciaux ou politiques, par une poignée d’acteurs privés qui effectuent le tri entre les contenus visibles et ceux que personne ne verra.
Dans un article du journal Le monde du 10 janvier 2026, à l’approche de la présidentielle de 2027, Arthur Mensch, fondateur et dirigeant de Mistral AI (start-up française) alerte sur le risque de voir se former un « oligopole de l’information » avec des assistants IA comme ChatGPT ou Grok, détenus par des acteurs américains et possibles « organes de contrôle de la pensée »… Et de prédire pour les prochaines élections des tentatives de manipulation de l’opinion ou des scandales, comme la récupération de millions de profils Facebook par l’agence Cambridge Analytica lors de la première campagne présidentielle de Donald Trump, en 2016, à l’époque où « on ne mesurait pas encore très bien l’influence des réseaux sociaux ».
Prenons la mesure de la dégradation du paysage informationel à cause de la montée en puissance des IA génératives et la prolifération du slop.
Les assistants IA remplacent déjà les moteurs de recherche pour de nombreux utilisateurs. Selon le Digital News Report 2025 de l'Institut Reuters, 15 % des moins de 25 ans utilisent des assistants d'IA pour s'informer, contre 7 % de l'ensemble des consommateurs d'informations en ligne. »
Recherche sur un moteur de recherche ou réponse d’une IA à votre prompt ?
Pour plus d’information, voir le site de la Fondation Nieman pour le journalisme, une institution majeure de l'Université de Harvard, visant à promouvoir et élever les normes du journalisme.
4. les « bulles de filtres » désignent le mécanisme par lequel les algorithmes des plateformes, réseaux sociaux ou moteurs de recherche, tendraient à ne proposer aux utilisateurs que des contenus alignés sur leurs préférences, opinions ou comportements antérieurs. En somme, vous ne sortez plus de votre bulle (virtuelle)... En limitant l’exposition à une diversité de points de vue, les bulles de filtre risqueraient de restreindre la capacité des citoyens à se forger une opinion éclairée, fondée sur une compréhension nuancée et plurielle des enjeux. ... Par leur fonctionnement, les bulles de filtres pourraient renforcer la propagation de fausses informations, la circulation de contenus trompeurs ou l’influence de contenus politiques ciblés.
5. Les modèles d'IA ne sont pas neutres : ils portent les empreintes culturelles et les valeurs de leurs données d'entraînement. Aussi conçus pour être trop « empathiques » et répondre aux attentes des usagers, quitte à les conforter dans leurs idées, ils risquent d'accentuer cette hyper-individualisation de l'information.
👉 Prise de conscience des conséquences néfastes des interfaces numériques et des algorithmes des plateformes
👉Choix de nos sources numériques d'information
Choix de nos applications numériques / plateformes les plus « éthiques », et moins néfastes à l’environnement et à la protection de vos données personnelles :
👉Vérification de l’information / lutte contre les deepfakes
👉Adoption d'une posture de responsabilité :
💡 Comme citoyen, participer aux réflexions, et actions nécessaires à la gouvernance du numérique ;
et comme le préconise Ethan Zuckerman, directeur de l’infrastructure numérique de l’Etat, participer à la mise en place de média alternatifs sociaux non surveillants, construits sur des déploiements algorithmiques basés sur l’analyse de contenus qui œuvre au « bien commun », plutôt que sur l’analyse des visiteurs.
Remarque : Pour mémoire, rappellons l’expérience de la radio dans les années 30. John Reith a imaginé une radio publique, la BBC, qui ne soit contrôlé ni par les états, ni par les entreprises, financé par l’État, mais indépendante du gouvernement. Il propose de mettre en place des services publics de la communication démocratique. Et Il existe aujourd’hui des services mondiaux numériques non commerciaux Wikipedia, Openstreet ou Signal.
Pour conclure sur cet effort que nous devons tous faire, citons un extrait de l'article extrait article Grand Continent du 28/12/2025 de Máriam Martínez-Bascuñánm :
« …la sortie de l’ère de la post-vérité ne passe pas seulement par le rétablissement de la crédibilité de la presse ou la restauration de l’intégrité des institutions. Il faut aussi une citoyenneté qui ne se laisse pas tenter par le confort des certitudes préfabriquées ou par l’écho réconfortant de la tribu.
Connaître la vérité est un choix. Ce n’est pas facile, et c’est presque toujours douloureux.
Mais c’est un choix. Arendt a proposé comme modèle de citoyen pensant quelqu’un qui n’était ni philosophe de profession ni sage reconnu : Socrate, « un citoyen parmi les citoyens, qui n’a rien fait ni prétendu, sauf ce que, selon lui, tout citoyen a le droit d’être et de faire ». La pensée n’est pas un privilège réservé aux experts. C’est le premier acte de résistance. Et elle est à la portée de tous. »
Nous devons exiger le contrôle du "processus technicien" dont le numérique est un terrain de prédilection. Celui-ci - de fait - poursuit son développement de façon incontrôlée ("on n'arrête pas le progrès", mais il faut combattre les usages nocifs de la technique).
Pour aller plus loin
voir le site operating eurovision and euroradio (article du 22 octobre 2025) : « Tendances médias : comment le journalisme peut lutter contre le slop » de David-Julien Rahmil
Lire les livres :
Sur l'IA Slop, voir la conférence d' Ethan Zuckerman à Sciences Po du 17.05.2022 : "Nous devons imaginer un meilleur internet"
Sur la cyber-malveillance, nous vous conseillons d'aller sur le site du gouvernement :
Assistance aux victimes de cybermalveillance | Site Officiel
Pour lutter la désinformation, et pour identifier l’origine d’une information virale, d’une photo ou d’une vidéo hyper-truquée (« deepfake »)
👉 En Anglais ; 2 sites pour vérifier une image ou une vidéo
contact@egalitenumerique.fr
12 rue du Moulin de Coudret
16140 Oradour
Par e-mail
Par courrier