Egalité Numérique

📢 Nous devons tous comprendre les enjeux du numérique et de l'intelligence artificielle (IA)

car nous sommes tous concernés individuellement et comme citoyen, 
même si nous ne sommes pas à l'aise avec Internet.
 

Ce site a pour objectif de donner quelques pistes de réflexions sur les enjeux et risques liés à cette technologie

1 2

Questionnement sur la fin des réseaux sociaux ?

06/04/2026

Questionnement sur la fin des réseaux sociaux ?

Rappelons les dernièrs jugements concernant les réseaux sociaux
(Extrait de l’article de Hubert Guillaud de « Dans les algorithmes.net » du 7 avril 2026) : 

« Un tribunal de Los Angeles a reconnu Meta et Google coupables d’avoir créé des produits addictifs ayant causé des troubles mentaux à une jeune femme, et condamnée à verser 3 millions de dollars de dommages et intérêts. … (Citons)une autre condamnation de Meta dans une affaire au Nouveau-Mexique où l’entreprise à été condamnée à une amende de 375 millions de dollars pour des milliers d’infractions aux lois de l’Etat sur la protection des consommateurs et sur le fait que Meta aurait indirectement facilité des crimes graves. … Aux Etats-Unis, de nombreux procès d’utilisateurs attendent les géants des réseaux sociaux. …Ce qui est en cause, ce sont notamment les flux algorithmiques, la lecture automatique des vidéos et les notifications push, ainsi que le fait que Instagram et YouTube avaient été créés par des entreprises conscientes de leur caractère addictif et nocif, et que ces entreprises avaient choisi de ne pas avertir les consommateurs de ces risques….(Les) documents provenant du procès au Nouveau-Mexique ont montré que pendant 6 ans, « Meta a peaufiné des paramètres de confidentialité de base, tout en calculant comment de simples interventions permettraient de réduire modérément le temps passé sur Instagram et en optant initialement pour des mises à jour progressives et prudentes afin de préserver ses statistiques d’engagement ». Un rapport interne montrait que l’algorithme recommandait des comptes d’enfants à des adultes au prétexte que les fans veulent suivre leurs stars préférées et auraient jeté des enfants en pâtures à des délinquants sexuels…Les darks patterns ont donc bien pour fonction de limiter la réflexion de l’utilisateur pour favoriser son engagement. La captologie a bien été utilisée pour créer des dépendances cognitives....
•    En Caroline du Sud, un projet de loi souhaite d’ailleurs débrancher les fonctionnalités addictives pour les comptes enfants, telles que le défilement infini, certaines notifications push, la lecture automatique des vidéos, les compteurs de mentions J’aime et autres indicateurs d’engagement, les badges de compte et les flux d’actualités exploitant le profil. 
•    Aux Pays-Bas, Meta a fait appel d’une décision de justice qui l’oblige à proposer un fil alternatif chronologique à son classement algorithmique.
… les réseaux sociaux jouent la montre. Il est probable qu’ils continuent à faire des ajustements mineurs, progressifs, incrémentaux. »

 

 

Vers la fin des réseaux sociaux ? (extrait article de Hubert Guillaud 6 février 2026 sur le texte du chercheur James O’Sullivan dans la plateforme Noema.  « The Last Days Of Social Media )

 

« Les réseaux sociaux se sont construits sur l'attention, non seulement sur la promesse de capter la vôtre, mais aussi sur la possibilité de capter une part de celle des autres. Après deux décennies, le mécanisme s'est inversé, remplaçant la connexion par l'épuisement. (...) Le temps passé sur ces plateformes reste considérable : on y fait défiler les contenus non par plaisir, mais par incapacité à s'arrêter. » … Nous vivons les derniers jours des réseaux sociaux, non pas par manque de contenu, mais parce que l'économie de l'attention a atteint ses limites : notre capacité d'attention est épuisée.

Les réseaux sociaux ne sont plus un lieu où l'on a envie d'être, mais une surface à survoler. Reste à savoir si l’on peut s’en passer ? « L’adolescente qui refuse TikTok risque de se retrouver incapable de décrypter les références, les mèmes et les microcultures qui constituent le langage courant de ses pairs. » … Reste qu’à mesure que les médias sociaux s'effondrent sur eux-mêmes, l'avenir se dessine vers un réseau plus discret, plus fragmenté, plus humain, qui ne prétend plus être tout, partout et pour tous.

 

Les applications de messagerie comme Signal deviennent discrètement des infrastructures dominantes de la vie sociale numérique, non pas parce qu’elles promettent la découverte, mais justement parce qu’elles ne le font pas. Dans ces espaces, un message a souvent plus de sens car il est généralement adressé, et non diffusé de manière systématique.

« Les derniers jours des réseaux sociaux pourraient bien marquer le début d'une ère plus humaine : un web qui se souvient de la raison même de notre présence en ligne : non pas pour être exploités, mais pour être entendus ; non pas pour devenir viraux, mais pour retrouver nos semblables ; non pas pour faire défiler, mais pour créer du lien. Nous avons bâti ces systèmes, et nous pouvons assurément en construire de meilleurs. La question est de savoir si nous y parviendrons ou si nous continuerons à nous noyer. »

 

Dans son article du 10 mars 2026, Hubert Guilbaud commente les conclusions du Tim Wu, professeur de droit américain, spécialiste des réseaux et de leur régulation, grand défenseur du droit de la concurrence et de la neutralité des réseaux, sur l'activité d'extraction de nos données par les plateformes. 

Dans son livre “L’âge de l’extraction”, Tim Wu analyse la façon dont les plateformes sont devenues le cœur du processus extractivisme. « Leur pouvoir ne réside pas dans la production, mais plutôt ... dans l’hébergement de toute activité économique et l’extraction de valeur, y compris la valorisation de ressources spécialisées comme les données et l’attention humaine » ... "l’IA va surtout continuer d’étendre et d’approfondir le monopole des plateformes, à renforcer leurs positions de marché en cristallisant nos dépendances, nos allégeances. Et en renforçant notre connexion émotionnelle via leurs chatbots anthropomorphes, comme l’ont fait à leur époque Coca-Cola ou Marlboro. « Les émotions sont les moteurs irrésistiblement puissants des modèles commerciaux ».... L’immense fortune des plateformes de la tech ne semble avoir plus d’entrave, notamment parce que leur niveau de fortune ne permet plus d’opposition."

 

En conclusion, l'avenir des réseaux sociaux reste une question ouverte, et le doute sur le pouvoir des régulations actuelles s'installe. 

Lutter contre la désinformation, pour notre démocratie, et contre l'IA slop

02/02/2026

Lutter contre la désinformation, pour notre démocratie, et contre l'IA slop
L'usage d'internet par les Français est en pleine croissance, comme le décrit le rapport du CREDOC : Voir l'édition 2026 du Baromètre du numérique conduit à la demande de l’Arcep, de l’Arcom, du CGE et de l’ANCT. L'information sur les faits, et les débats sur leurs interprétations se font aujourd'hui via le numérique boosté à l'IA.

 

Cheminement allant des faits à la formation de nos opinions

 

(1) Prise d'information sur les faits 

La première question à se poser, quand nous prenons connaissance de faits, est : Quelle est l'intention de celui qui nous la donne ? Et apprenons à distinguer la désinformation, la mésinformation, et mal information
• Désinformation : informations fausses et délibérément créées pour nuire à une personne, un groupe social, une organisation ou un pays.
• Mésinformation : informations fausses mais non créées dans l'intention de nuire.

• Mal information : informations basées sur la réalité, utilisées pour infliger un préjudice à une personne, un groupe social, une organisation ou un pays (sources Unesco).

Donnons deux exemples de moyens de diffuser de la fausse information:

 

 

Nous devons donc apprendre à vérifier les informations que nous recevons, et devenir des "fact checkers" permanents, suivant les 2 sources d'informations aujourd'hui : Les plateformes sur internet et les sources traditionelles (journaux, radio, télé...)

 

 

Les plateformes profitent d’un statut privilégié de simples canaux de partage d’informations. En effet au nom de l’article 230 du Communications Decency Act, voté en 1996, les plateformes ne peuvent être poursuivies en justice pour les contenus publiés par leurs utilisateurs. Ce régime est complètement distinct de celui des médias, tels les journaux, qui sont tenus à une responsabilité éditoriale.

Les « réseaux sociaux » et de nombreux site internet sont, pour beaucoup d'entre nous, le « carburant » de nos réactions intuitives, de nos affects, en stimulant la production de dopamine, et en  nous enfermant dans des bulles d’informations parfois non vérifiées, parcellaires ou fausses.  David Chavalarias publie en 2022 « Toxic Data », tout y est très simplement expliqué : Comment les mouvements d’opinion sont aujourd’hui hautement manipulés et amplifiés sur les réseaux ou les messagerie au point que nos démocraties vont y laisser leur peau.

En 2016, "les mathèmaticiens de  Cambidge Analytica font effacement campagne pour le oui  au Brexit avec leurs algorithmes d'influence en ligne personnalisée. Quelle humiliation pour la psyché humaine de voir ces modèles réduisant nos subtiles personnalités à cinq nombre, mesurant ouverture, conscienciosité, extraversion, amabilité, neuroticisme, pour mieux nous manipuler" (extrait podcast Radio France, épisode 3 "intelligence artificielle : utopie dystopique" de Cédric Villani). 

 

La Boétie décrit, dans son "Discours de la servitude volontaire", l'obéissance des peuples à la tyrannie, expliquant que celle-ci est maintenue par l'habitude, la corruption et la bêtise, plutôt que par la force. 

La tyrannie, exercée sur notre psychisme des réseaux sociaux et de certaines applications internet, doit être combattue !

 

(2) Débats nécessaires pour forger nos opinions

Un minimum d’empathie envers ses concitoyens est une condition indispensable pour un débat serein. Certains politiciens ont une autre opinion sur l'intérêt des débats serein : 

« La faiblesse fondamentale de la civilisation occidentale est l’empathie »

expliquait Elon Musk dans un interview sur le podcast de Joe Rogan. 

 

 

 

L'émergence d'une IA SLOP et
la dégradation du paysage informationnel

 

(1) L'émergence d'une IA SLOP, média de mauvaise qualité

Le slop (aussi appelé AI Slop) est un média de mauvaise qualité, comprenant des textes, des sons et des images, réalisé à l'aide d'une technologie d'intelligence artificielle générative. Inventé dans les années 2020, le terme a une connotation péjorative proche de celle de « spam ». Les contenus des « slops » sont ensuite réingérés dans les IA, et le cycle continue.

Citons l’article de Hubert Guillaud sur le texte de  la chercheuse Kate Crawford dans une tribune pour e-flux , « Vers l’effondrement métabolique » du 19 septembre 2025 (dans la Lettre hebdomadaire de café IA):    

L’industrialisation de contenus synthétiques réalisés à l'aide de l’IA

« Les producteurs de contenus synthétiques atteignent des taux d’engagements supérieurs aux influenceurs humains qui semblent de plus en plus indiscernables des humains, comme l’était, dès 2018, l’une des premières influenceuses synthétiques, Lil Miquela. Les équipes de création de contenu déploient des outils d’IA pour générer des centaines de publications, d’images et de vidéos potentielles, puis utilisent l’analyse de l’engagement pour identifier les combinaisons les plus addictives afin de les optimiser. L’industrialisation du contenu viral s’auto-accélère. Les fonds destinés aux créateurs de contenus se transforment en subvention du seul contenu synthétique, à l’image de TikTok ou Meta qui sponsorisent les usines à slops en distribuant des revenus du fait de leur viralité… »

Effondrement de l’IA slop ?

« L’évolution vers une IA générative massive et gourmande en données affecte l’environnement, le travail, la culture, la science … Les LLM sont en train de supplanter les sources d’information en ligne, cannibalisant les marchés de la création de contenu….De nombreuses études ont montré que les systèmes d’IA dégénèrent lorsqu’ils se nourrissent trop de leurs propres productions – un phénomène d’effondrement que les chercheurs appellent MAD (La maladie du modèle autophage). En d’autres termes, l’IA s’autodétruira, puis s’effondrera progressivement dans le non-sens et le bruit….’’L’IA slop n’est pas une aberration, mais une caractéristique inévitable du fonctionnement des médias génératifs’’. Cette rupture métabolique promet de multiples effondrements, prédit la chercheuse : effondrement des modèles, effondrement écologique et effondrement cognitif s’entrecroisent dans une forme de polycrise. »

 

Quelques chiffres de mesure de ce phénomène  de "pollution" numérique et médiatique»

L’accès sur internet à des articles issues d’une source « vérifiée » est pas facile

  • l’information relayée par les IA se trouve bien souvent dégradée. D’après une étude dirigée par la BBC, publiée le 22 octobre, 45% des réponses données par ChatGPT, Copilot, Gemini et Perplexity (sur 3000 requêtes analysées) présentaient au moins un problème important, tandis que 31% des réponses révélaient de graves problèmes de sourcing.
  • La distinction entre les sites générés par de vrais sites de presse et issues d’un travail journalistique et les sites zombies diffusant des articles générés par des IA Slop n’est pas faite par le principal pourvoyeur d’audience, l’agrégateur Google Discover. Les pages des sites zombies sont souvent suffisamment optimisées en SEO pour pouvoir apparaître dans l’agrégateur Google Discover.

Jean-Marc Manach, Next.ink, 18 décembre 2025 soulignait l'ampleur de ce phénomène : 

  • La «véritable "pollution" numérique et médiatique» et évoquait prés de 10 000 sites d’information en français générés par IA : «Plus de 1000 médias en français, générés par IA, polluent le web (et Google)», titrait Next en début (février) 2025, et courant 2025, 8900 sites ont été identifiés comme «en tout ou partie générés par IA» (GenAI), administrés (et monétisés) par plus de 200 éditeurs.
  • Rôle de Google Discover : Début octobre, Next révélait que près de 20% des 1000 sites d'info les plus recommandés par Google Discover, et 33% des 120 sites les plus recommandés par Google News, à la rubrique Technologie, étaient générés par IA. L'algorithme Discover de «recommandation de contenus» de Google, la principale source de trafic des sites journalistiques français, est en effet devenu une «pompe à fric» pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google.

Mesure d’audience des sites recommandés par Google Discover :

Source : Next et le Groupement des éditeurs de services en ligne (http://www.geste.fr/) 

 

👉«pièges à boomers», ou «boomer traps» :  Les inactifs, en particulier les personnes âgées, semblent en effet plus particulièrement susceptibles de tomber dans le piège de ce type d'infox et images GenAI, au point d'être qualifiées de «pièges à boomers», ou «boomer traps».»  

 

Rappelons la situation actuelle de notre dépendance à des entreprises américaines ou chinoises propriétaires des réseaux sociaux qui n’assument pas le statut d’éditeurs de contenu, mais qui nous imposent leur ligne éditoriale par l’intermédiaire de leurs algorithmes. Seuls les contenus recommandés par leurs algorithmes sont vus, les autres demeurent invisibilisés. Ces algorithmes sont élaborés en toute opacité, basés sur des calculs purement quantitatifs arrimés à des objectifs commerciaux ou politiques, par une poignée d’acteurs privés qui effectuent le tri entre les contenus visibles et ceux que personne ne verra.
Dans un article du journal Le monde du 10 janvier 2026, à l’approche de la présidentielle de 2027, Arthur Mensch, fondateur et dirigeant de Mistral AI (start-up française) alerte sur le risque de voir se former un « oligopole de l’information » avec des assistants IA comme ChatGPT ou Grok, détenus par des acteurs américains et possibles « organes de contrôle de la pensée »… Et de prédire pour les prochaines élections des tentatives de manipulation de l’opinion ou des scandales, comme la récupération de millions de profils Facebook par l’agence Cambridge Analytica lors de la première campagne présidentielle de Donald Trump, en 2016, à l’époque où « on ne mesurait pas encore très bien l’influence des réseaux sociaux ». 

(2) Dégradation du paysage informationel 

Prenons la mesure de la dégradation du paysage informationel à cause de la montée en puissance des IA génératives et la prolifération du slop.

  1. L’apparition de contenus absurdes et viraux produits très facilement par des outils comme Sora, Veo ou Runway Gen qui permettent à quiconque de créer des vidéos hyperréalistes. La prolifération de contenus générés par IA pose un problème de pertinence. Ces textes reposent fréquemment sur des enquêtes journalistiques anciennes, souvent remixées sans aucune attribution ni vérification. Plusieurs analyses montrent que 45 % des réponses fournies par ChatGPT, Copilot, Gemini et Perplexity contiennent au moins un problème majeur. De plus, 31 % de ces contenus présentent de graves lacunes en matière de sourcing.
  2. Le changement d’attitude des consommateurs d’information en ligne :  

    Les assistants IA remplacent déjà les moteurs de recherche pour de nombreux utilisateurs. Selon le Digital News Report 2025 de l'Institut Reuters, 15 % des moins de 25 ans utilisent des assistants d'IA pour s'informer, contre 7 % de l'ensemble des consommateurs d'informations en ligne. »                         
                                 Recherche sur un moteur de recherche ou  réponse d’une IA à votre prompt ? 

    « … Lorsqu’un internaute se contente de synthèses de contenus générés par IA, il ne va pas vérifier les sources de lui-même, contrairement à une recherche sur Google « classique ». Les synthèses gomment la véracité des sources. On ne voit plus le design du site sur lequel les modèles ont pioché leurs réponses ou sa réputation. On ne voit qu’un texte propre, bien écrit, qui semble vrai…. Selon une étude menée l’an dernier par Bain & Company, « 80 % des consommateurs se fient désormais aux résultats générés par l’IA pour au moins 40 % de leurs recherches ». Voilà pourquoi il est urgent de redonner leurs valeurs premières aux sources vérifiées avant que le web ne se change en gigantesque chambre d’écho, ne propageant que des rumeurs erronées, mais bien référencées…. l’IA générative n’est pas un moteur de recherche ; c’est un algorithme qui brasse des probabilités. Il est aussi de notre responsabilité de ne pas nous faire avoir lorsqu’elle peut parfois nous livrer une bouillie informationnelle joliment présentée. » Publié le 25 février 2026 par Camille Coirault sur le site https://www.presse-citron.net/ 
  3. L'énorme volume  de contenus générés par IA dans le web :
    «Plus de 1000 médias en français, générés par IA, polluent le web (et Google)», titrait Next en février dernier. 14 à 16 millions d'internautes français consultent chaque mois l'un des 251 sites d'infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d'infos GenAI que de vrais sites d'actualités. 77 % y sont envoyés par l'un des services de Google (Discover, Search ou Actualités), et 10 % via Meta. 
    Plus de la moitié des articles mis en ligne dans l’espace d’une journée sont créés sur des IA, d’après une étude de l’agence Graphite, publiée courant octobre et basée sur l’analyse de 65000 textes. Ces articles :
    • sont  souvent des plagiats remixés d’enquêtes journalistiques datant parfois de plusieurs mois
    • ont aussi la particularité d’être publiés sur des sites zombies. Il peut s’agir de médias étudiants ou locaux laissés à l’abandon, ou d’anciens sites d’entreprises de livraison de fruits et légumes ou de promotion d’événements passés dont l’URL a été récupérée.
    • seraient pour le moment largement invisibles et peu recommandés par Google ou ChatGPT.

Pour plus d’information, voir le site de la Fondation Nieman pour le journalisme, une institution majeure de l'Université de Harvard, visant à promouvoir et élever les normes du journalisme.

4. les « bulles de filtres » désignent le mécanisme par lequel les algorithmes des plateformes, réseaux sociaux ou moteurs de recherche, tendraient à ne proposer aux utilisateurs que des contenus alignés sur leurs préférences, opinions ou comportements antérieurs. En somme, vous ne sortez plus de votre bulle (virtuelle)... En limitant l’exposition à une diversité de points de vue, les bulles de filtre risqueraient de restreindre la capacité des citoyens à se forger une opinion éclairée, fondée sur une compréhension nuancée et plurielle des enjeux. ... Par leur fonctionnement, les bulles de filtres pourraient renforcer la propagation de fausses informations, la circulation de contenus trompeurs ou l’influence de contenus politiques ciblés.

5. Les modèles d'IA ne sont pas neutres : ils portent les empreintes culturelles et les valeurs de leurs données d'entraînement. Aussi conçus pour être trop « empathiques » et répondre aux attentes des usagers, quitte à les conforter dans leurs idées, ils risquent d'accentuer cette hyper-individualisation de l'information.

 

 

 

Conclusion :

La frontière entre vrai et faux s’efface chaque jour davantage.

 

 

 

Nos conseils pour lutter contre la désinformation et   "IA Slop" 

 

(1) 👉  A notre niveau personnel : Nos actions au fil de l’eau de nos usages d’internet

 

👉 Prise de conscience des conséquences néfastes des interfaces numériques et des algorithmes des plateformes

  1. En matière de liberté : Les interfaces de ces systèmes numériques construits à base d'IA « peuvent masquer nos réelles possibilités d’agir ou orientent nos décisions, et restreindre peu à peu notre autonomie »
  2. En matière de santé, citons « les processus compulsifs et addictifs … en jeux »
  3. En matière d’écologie, la consommation énergétique de tous les algorithmes, matériels et infrastructures numériques, leur modes de fabrication utilisnat de l'eau et des métaux rares, et l’incitation à la sur-consommation ne vont pas dans le sens du respect des principes écologiques.
  4. En matière de démocratie, ces systèmes pour certains « sapent l’apprentissage du débat contradictoire au profit du clash et de la violence verbale sur Internet. En effet, ces processus de captation de l’attention… ont tendance à favoriser les contenus choquants et les fausses informations, à polariser les utilisateurs, et à réduire leur capacité à comprendre d’autres points de vue, et même à le vouloir. L’économie de l’attention atrophie notre capacité à partager des idées, à échanger, bref, appauvrit notre expérience du monde ».

 

👉Choix de nos sources numériques d'information  
Choix de nos applications numériques / plateformes les plus « éthiques », et moins néfastes à l’environnement et à la protection de vos données personnelles : 

    1. Exemple : Messagerie concurrente de Whatsapp (par exemple Signal?),
      Navigateur et Moteur de recherche (Quant boosté par Mistral ? , ….), 
    2. Identifier les modèles d’IA peu gourmande en données et énergie…
    3. Utiliser des médias payants dont l'origine de l'information est garantie, ou gratuits qui affichent leur volonté de diffuser une information vérifiée (comme Hugo Decrypt). 

👉Vérification de l’information / lutte contre les deepfakes 

    1. Vérifier les informations écrites, les images et vidéos et sons, que vous recevez :
      1. en premier lieu avec votre analyse de bon sens et une observation attentive pour repérer des éléments suspects de l’information reçue, soyons conscient de nos propres biais (nous aimons souvent nous divertir avec des informations que nous ne questionnons pas assez)
      2. en vous posant les questions : Qui est l’émetteur du message reçu ? Qui est derrière la plateforme  ou le site ? Qui finance cette diffusion d’information ?
      3. en recoupant cette information avec d’autres sources que vous jugez fiables,
      4. ou en vous faisant aider d’outils disponibles sur internet (voir ci-dessous)
    1. Ne partager cette information sur vos réseaux ou par mail qu’après cette phase de vérification

👉Adoption d'une posture de responsabilité :

  1. Exiger et s'imposer une rigueur évaluative des outils que nous utilisons pour s'informer, 
  2. Soyons prêt à dépenser un peu d’argent pour accéder à des sites fiables (La presse écrite, audiovisuelle ont en très grande majorité des contrats avec des « fact checkers » (vérificateur d’information, comme l’AFP…). Quand un site est « gratuit », cherchez à comprendre son modèle économique. Produire de l’information « vérifiée » coûte de l’argent. 

 

(2) A notre niveau de citoyen, consommateur, investisseur :

 

 

💡 Comme citoyen, participer aux réflexions, et actions nécessaires à la gouvernance du numérique ;

  • Exprimer vos demandes aux politiques qui doivent concevoir nos lois numériques et les faire appliquer (en particulier lors des différentes élections). Demander à l’Etat ou/et aux administrations territoriales de :
      1. nous informer et former correctement, pour nous protéger des risques de l’IA,
      2. avec la mise en place de structures-organisations adéquates au niveau État, départemental 
      3. en utilisant des produits européens, ou "non liés à une puissance étrangère hostile"
      4. et comme le préconise Ethan Zuckerman, directeur de l’infrastructure numérique de l’Etat, participer à la mise en place de média alternatifs sociaux non surveillants, construits sur des déploiements algorithmiques basés sur l’analyse de contenus qui œuvre au « bien commun », plutôt que sur l’analyse des visiteurs.

      5. avec l'obligation, pour les réseaux sociaux commerciaux, à s’ouvrir à d’autres services de recommandation de contenus, laissant aux utilisateurs la liberté de choisir quel système leur recommande les contenus, selon quels critères et dans quel but.

Remarque : Pour mémoire, rappellons l’expérience de la radio dans les années 30. John Reith a imaginé une radio publique, la BBC, qui ne soit contrôlé ni par les états, ni par les entreprises, financé par l’État, mais indépendante du gouvernement. Il propose de mettre en place des services publics de la communication démocratique. Et Il existe aujourd’hui des services mondiaux numériques non commerciaux Wikipedia, Openstreet ou Signal.

  • Réfléchir collectivement aux usages de l’IA  : « Sapere aude ! » (Ose savoir)  ..écrivait Emmanuel Kant en 1784 …Connaître la vérité est un choix. Ce n’est pas facile, et c’est presque toujours douloureux.  La pensée n’est pas un privilège réservé aux experts. C’est le premier acte de résistance. Et elle est à la portée de tous. » (Extrait article Grand Continent 28/12/2025 Mariam Martínez-Bascuñánm). Nous n’avons pas besoin d’être informaticien pour réfléchir la révolution qu’est l’intelligence artificielle.

 

👉Comme investisseurs et consommateur :

      1. 💡investir et soutenir les réseaux sociaux alternatifs non-commerciaux et décentralisés. 
      2. 💡investir dans la recherche et le développement de systèmes qualitatifs et citoyens.
        Citons quelques pistes évoquées dans la presse : 
        Différents systèmes de recommandations pourraient être développés par des médias, des institutions académiques, des acteurs associatifs, qui se verraient ainsi dans la capacité de recommander des contenus selon des critères diversifiés et transparents, qui s’appuient sur les avis de différentes communautés de pairs.
        C
        omme investisseur ou membres d'associations, nous pourrions collaborer à la mise en place :
        1. de label « site d’information vérifiée » avec des « fact checkers » (vérificateur d’information, comme l’AFP…), ou
        2. de « réseau social avec un organe modérateur reconnu et labélisé » ou
        3. d'une notation « éthique » des sites et réseau sociaux sur le respects de nos lois et ceux de l’Europe (DSA, DMA, RGPD, IA Act)
      3. 💡Participer à une action collective de choix ou de refus de produits « néfactes ». Evitez X, Instagram, Facebook... et nous aider les uns les autres à devenir un consommateur "éthique" du numérique.

 

Pour conclure sur cet effort que nous devons tous faire, citons un extrait de l'article extrait article Grand Continent du 28/12/2025 de Máriam Martínez-Bascuñánm :

 « …la sortie de l’ère de la post-vérité ne passe pas seulement par le rétablissement de la crédibilité de la presse ou la restauration de l’intégrité des institutions. Il faut aussi une citoyenneté qui ne se laisse pas tenter par le confort des certitudes préfabriquées ou par l’écho réconfortant de la tribu. 

Connaître la vérité est un choix. Ce n’est pas facile, et c’est presque toujours douloureux. 

Mais c’est un choix. Arendt a proposé comme modèle de citoyen pensant quelqu’un qui n’était ni philosophe de profession ni sage reconnu : Socrate, « un citoyen parmi les citoyens, qui n’a rien fait ni prétendu, sauf ce que, selon lui, tout citoyen a le droit d’être et de faire ».  La pensée n’est pas un privilège réservé aux experts. C’est le premier acte de résistance. Et elle est à la portée de tous. »

Nous devons exiger le contrôle du "processus technicien" dont le numérique est un terrain de prédilection. Celui-ci - de fait - poursuit son développement de façon incontrôlée ("on n'arrête pas le progrès", mais il faut combattre les usages nocifs de la technique). 

 

 

 

 

 

 

Pour aller plus loin

 voir le site operating eurovision and euroradio (article du 22 octobre 2025) :  « Tendances médias : comment le journalisme peut lutter contre le slop » de David-Julien Rahmil
Lire les livres :

  • «Il faut accepter l’idée, le slop est en train de gagner» (Albertine Meunier et Hugo du Plessix interrogés par David-Julien Rahmil, L'ADN, 16 octobre 2025)
  • Roi du slop et du grotesque, Trump a retourné le paysage médiatique (David-Julien Rahmil, L'ADN, 21 octobre 2025)
  • Quand l’IA tue la littérature (Stéphanie Parmentier, The Conversation, 19 octobre 2025)
  • IA: comment sortir de la bulle ? (Antonin Bergeaud, Le Grand Continent, 21 octobre 2025)

Sur l'IA Slop, voir la conférence d' Ethan Zuckerman à Sciences Po du 17.05.2022  : "Nous devons imaginer un meilleur internet"

 

Sur la cyber-malveillance, nous vous conseillons d'aller sur le site du gouvernement : 

Assistance aux victimes de cybermalveillance | Site Officiel

Pour lutter la désinformation, et pour identifier l’origine d’une information virale, d’une photo ou d’une vidéo hyper-truquée (« deepfake ») 

 

 

  • Le site français De facto (https://defacto-observatoire.fr/ ) est le premier espace indépendant où chercheurs, journalistes et professionnels de l’éducation aux médias et à l’information unissent leurs efforts dans la lutte contre la désinformation. Son ambition est de promouvoir la qualité de l’information – essentielle pour nos démocraties -, la diversité du débat public et la régulation des plateformes numériques.

 

  • Le site de l’Europe (UE) pour comprendre la désinformation pilotée par la Russie
    EU vs Disinfo,   Site du Service européen (partie du service diplomatique de l’UE, dirigé par le haut représentant de l’UE) pour contrer la désinformation de la Russie. Ce site est le travail du  groupe de travail East Stratcom, une équipe constituée d’experts qui ont principalement suivi une formation en communication, journalisme, sciences sociales et étude de la Russie.

 

    • Pour simple information citons le dispositif européen RAS - Rapid Alert System. : Le système d’alerte rapide (RAS) est un élément important de l’approche globale de l’UE pour lutter contre la désinformation, et est un des quatre piliers du Plan d’action contre la dés-information approuvé par le Conseil Européen en décembre 2018. Il a été établi pour promouvoir le partage des connaissances entre les institutions de l’UE et les États membres en ce qui concerne les campagnes de désinformation et de coordonner les réponses. Le RAS de base sur des informations en open source et s’appuie également sur les connaissances du monde universitaire, des vérificateurs de faits (fact checker), des plateformes en ligne et des partenaires internationaux. 

 

👉  En Anglais ; 2 sites pour vérifier une image ou une vidéo 

 

  • Deepware   (en anglais) qui permet de reconnaître les vidéos « hyper-truquée » (deepfake),

 

  • TinEye - : Vous vous interroger que l’origine d’une image : Vous pouvez effectuer une recherche par image ou ce que TInEye appele une recherche inversée d’image. Vous pouvez le faire en téléchargeant une image ou en recherchant par URL. Vous pouvez aussi simplement glisser-déposer vos images pour commencer votre recherche. TinEye fait constamment le crawl du web et ajoute des images à son index. Aujourd’hui, l’indice TinEye compte plus de 72,1 milliards d’images.

 

 

 

 

 

La future évolution du web : vers une communication entre machines ?

31/12/2025

La future évolution du web : vers une communication entre machines ?

Par "agent", nous comprenons un système d’intelligence artificielle doté de la possibilité « d’agir » de manière autonome sur le web.

 

Des interfaces standardisées pour des "agents" autonomes

Pourquoi le web doit techniquement évolué pour permettre des interfaces stadardisées entre les systèmes d'IA "agents" ? 

Actuellement, un site web ou un service en ligne communique généralement avec le monde extérieur humain via une « interface de programmation d'application (API) », Or, les API sont conçues pour être consultées et implémentées par les humains et chacune possède ses propres spécificités et sa documentation. …

Pour agir, les agents sont demandeurs d’une interface standardisée . C’est par exemple l’objectif de protocole de type  protocole MCP (Model Context Protocol), développé par Anthropic. … 

 

Coordination et confiance entre "agents"

Une IA assistant-agent devrait donc pouvoir interroger un serveur d’un site web ou un service en ligne pour « agir » (réserver un vol, réserver une voiture, payer un acompte, etc….).

👉 Ce type de coordination nécessite donc des règles encadrant l'identification, la communication et la confiance entre les différents agents.



Exemple d’usage : réservation automatisée


J’interroge, par un "prompt", mon assistant IA agent pour faire une réservation d’un vol et une voiture pour un jour donné (et je lui exprime mes souhaits (type de place, heure de départ de chez moi, type de billet d'avion, type de voiture...).

Mon assistant IA devra communiquer avec l’agent lié au système de la compagnie d’aviation (qui peut réserver la place voulue dans l’avion en fonction de mes souhaits) et avec celui de location de voiture (qui peut assurer la location appropriée suivant les désirs exprimés), et proposer, après confirmation de ma part, de s’occuper de réserver la place d’avion et de location de la voiture, et de payer les acomptes nécessaires. 

 

IA «assistant » ? IA «compagnon» ? IA «spy», «gourou»… ?

13/10/2025

IA «assistant » ? IA «compagnon» ? IA «spy», «gourou»… ?

En préalable, rappelons le poids des chatbots dans nos relations avec l'IA. Les usages des chatbots d’IA augmentent : Question sur la santé, projets de vacances, shopping en ligne, conseils pour investir… « Fin 2025, plus de 10% des requêtes du web étaient adressées directement à un chatbot d’IA. La plus part de ces grands modèles (LLM) dans la recherche en ligne pourrait dépasser dés 2028 celle des moteurs de recherche, comme Google…Il existe tout de même une part de ‘’loterie algorithmique’’ difficile à maîtriser… qui s’explique sans doute par des entraînements différents selon les modèles… »(Les Echos du 28/01/25).

Les fournisseurs de chatbots d'IA ajoutent toujours plus de fonctionnalités pour le shopping ou la publicité… L'utilisation des chatbots est donc un enjeux économique car générateurs de revenus pour ces fournisseurs d'IA.

Les dirigeants (et actionnaires) des sociétés créatrices de système d'IA ont une vision des "IA Assistant" qui doivent se transformer en "IA Compagnon". Citons le PDG de Microsoft AI « Nous ne devrions plus considérer l’IA comme un grille-pain ou même un smartphone, mais plutôt comme un nouveau type de compagnon émotionnellement engagé ». Et Mark Zuckerberg, PDG de Meta affirme que les avatars numériques pourront répondre à ces carences relationnelles : « Le monde physique et le monde numérique devraient être fusionnés ». Le contrôle de la qualité de ses compagnons émotionnellement engagés n'est aujourd'hui pas assuré. 

D'aprés l'enquête de l’association Common Sense Media parue le 16 juillet, près des trois quarts des adolescents américains déclarent avoir utilisé un compagnon émotionnel basé sur l’IA – un chatbot simulant une relation amicale, amoureuse, voire sexuelle. Les cas suivants, rapportés par les médias de faits concernant les personnes accompagnées par l’IA pour se suicider ou pour faire une demande de mariage à une personne virtuelle, sont rapportés par les médias et soulèvent des questions éthiques et psychologiques importantes. En effet, l’IA permet de fabriquer des compagnons virtuels de plus en plus réalistes. Le New York Times, le 23 octobre 2024, a reproduit l'ultime dialogue ente un adolescent américain de 14 ans Sewel et son "IA compagnon" : « Viens me rejoindre dès que tu peux, mon amour », demanda le bot. « Et si je te disais que je peux venir tout de suite ? », répliqua Sewell. « Fais-le s’il te plaît, mon cher roi », répondit le bot. L’adolescent lui dit qu’il le ferait, puis il mit fin à ses jours.

Citons l’article de Sud Ouest « Intelligence artificielle : une ONG veut faire interdire les compagnons IA « sans garde-fous » aux mineurs » : L’ONG concerné Common Sense Media (CSM) est une organisation américaine à but non lucratif, localisée à San Francisco, spécialisée dans l'étude des médias et technologies familiales et des enfants.

« Les compagnons virtuels appuyés sur l’intelligence artificielle générative présentent des risques pour les jeunes utilisateurs, selon l’ONG américaine Common Sense, qui recommande de les interdire aux mineurs.

L’explosion de l’IA générative a vu plusieurs start-up lancer, ces dernières années, des interfaces axées sur l’échange et le contact, des compagnons IA, façonnables selon ses goûts et ses besoins. Common Sense en a testé plusieurs, à savoir Nomi, Character AI et Replika, pour évaluer leurs réponses.

Et si certains de leurs usages « sont prometteurs », « ils ne sont pas sûrs pour les enfants », affirme l’organisation, qui fait des recommandations sur la consommation de contenus et produits technologiques par les enfants.

Son étude … a été réalisée en collaboration avec des experts en santé mentale de l’université de Stanford (Californie). »

 

Le lien de causalité entre l'utilisation de l'IA et ces événements est complexe et souvent difficile à établir avec certitude, mais néanmoins, nous devons nous interroger sur l’encadrement nécessaire des IA. Et nous devons protéger nos enfants (et toute personne fragile psychologiquement) des systèmes d'IA qui peuvent :

  • fragiliser leur bien-être psychologique. Les enfants sont particulièrement vulnérables, car ils sont encore en phase de développement.
  • collecter des données personnelles à leur insu, ce qui peut être dangereux si ces données sont mal utilisées,
  • avoir un impact négatif sur leur développement social, en les isolant ou en les déconnectant de la réalité,
  • les exposer à des contenus néfastes générés par l'IA, tels que les deep fakes, qui peuvent être difficiles à identifier et à combattre,
  • réduire les capacités de pensée critique, car ils pourraient devenir trop dépendants de ces outils pour obtenir des informations ou résoudre des problèmes,
  • Les exposer à des préjugés ou à des discriminations via les algorithmes, qui peuvent renforcer les inégalités ou reproduire des biais existants…

L’utilisation d’IA nocives et non contrôlées peut avoir des conséquences à long terme sur nos vies. Il est donc essentiel, en complément d’une réglementation protectrice (à renforcer) imposée à toutes les IA grand public,  de nous former (plus particulièrement les enfants et les personnes fragiles psychologiquement) à ces risques, et à utiliser l'IA de manière responsable et sécurisée.

Nous vous conseillons de voir  le site web de l'administration française : nouveau tchat confidentiel dédié à la protection des jeunes 

Accélération des offres de chatbot et impact sur la santé mentale

L’article de Laure Belot dans le journal Le Monde du 13 janvier 2026 indique que, début 2026, de nombreuses annonces de chatbot agissant dans le domaine de la santé mentale ont été faites. 3  exemples : 

  • Mercredi 7 janvier, la création par Open AI de ChatGPT Health. Selon l’entreprise, les usagers, en connectant leurs dossiers de santé, pourront à partir de fin janvier avoir des réponses « plus personnalisées » du robot sans que ce soit « ni un diagnostic ni un traitement ».
  • Lundi 12 janvier, la société Anthropic a, elle, dévoilé son propre programme, Claude for Healthcare.
  • En France, un dispositif médical utilisant la voix et une IA générative pour suivre des patients souffrant de schizophrénie, de dépression ou de bipolarité est annoncé par la société française Callyope pour 2026.

 

Puis l'article souligne les alertes des scientifiques sur l'IA et les chatbots

« Interrogé en novembre 2025 dans une communication de Nature sur ses plus grandes inquiétudes concernant l’IA, Mustafa Suleyman, cofondateur de DeepMind (racheté par Google), désormais directeur du développement des produits d’IA grand public de Microsoft, pointe du doigt ce risque accru de délires lors d’interactions émotionnelles avec les chatbots…La communauté scientifique, côté médecine ou technologies, multiplie les alertes. « C’est un nouveau problème de santé publique », ont affirmé neuf neuroscientifiques et informaticiens, dont certains chez des Gafam, dans une communication du 28 juillet 2025. Les chatbots présentent des biais technologiques, ont-ils souligné, disent ce que l’on veut entendre (sycophancy ou complaisance) et s’adaptent à la demande. Les personnes les plus fragiles, insistent ces chercheurs, peuvent développer une forte dépendance et voir leurs repères s’altérer, d’autant plus si elles sont socialement isolées. Les signataires appellent à « une action coordonnée des professionnels de la santé, des concepteurs d’IA et des autorités de régulation »…. Présentée à Madrid, le 22 octobre 2025, lors de la conférence sur l’intelligence artificielle, l’éthique et la société (AAAI/ACM), une étude de l’université Brown (Rhode Island) a détaillé comment ces chatbots « violent systématiquement les normes éthiques établies par l’American Psychological Association », même lorsqu’ils sont incités à utiliser des techniques de psychothérapie fondées sur des preuves. Ils fournissent, par exemple, des réponses trompeuses qui renforcent les croyances négatives des utilisateurs sur eux-mêmes et à l’égard des autres.

Quant aux améliorations annoncées pour que les chatbots soient plus prudents dans leur propos, celles-ci ne sont pas suffisantes, selon une analyse du laboratoire de santé mentale de l’université Stanford (Californie) pour l’ONG Common Sense Media, publiée le 20 novembre 2025. ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google Alphabet) et Meta AI (Meta) « ne parviennent toujours pas à reconnaître et à répondre de manière appropriée aux troubles de santé mentale des jeunes », notent les chercheurs, citant notamment l’anxiété, la dépression, le TDAH (trouble du déficit de l’attention avec ou sans hyperactivité) ou les troubles alimentaires.

Du côté institutionnel, trois Etats américains (Illinois, Utah, Nevada) ont décidé, mi-2025, de restreindre l’usage des chatbots, interdisant notamment aux thérapeutes de conseiller à un patient de se confier à une IA générative. L’American Psychological Association a émis, le 13 novembre, un avertissement intitulé « L’intelligence artificielle et les applications de bien-être ne peuvent à elles seules résoudre la crise de la santé mentale ». … A ce jour, cependant, aucun organisme international ne surveille systématiquement les effets de l’IA sur la santé mentale, comme le fait l’OMS sur les risques sanitaires… »

 

Modification des pratiques des psychiatres avec IA

L’article détaille plusieurs témoignages de spychiatres. « Depuis la Harvard Medical School, le professeur John Torous dit ne pas être surpris de ces exemples… « Cette perturbation n’est pas encore une disruption totale, car les outils numériques utilisés par les personnes [applications, robots conversationnels] ne gèrent encore pas bien les soins psychiatriques médicaux. » Mais, lorsque ceux-ci deviendront meilleurs et plus sûrs, ajoute-t-il, « cela changera notre façon de pratiquer. Nous devrons alors réfléchir à la manière de les intégrer » ».

 

Actions des Gafam sur le secteur de la santé mentale

L’article de Laure Belot cite des annonces et déclarations des GAFAM fin 2025 -début 2026 :

    • Mercredi 7 janvier, la création par Open AI de ChatGPT Health. Selon l’entreprise, les usagers, en connectant leurs dossiers de santé, pourront à partir de fin janvier avoir des réponses « plus personnalisées » du robot sans que ce soit « ni un diagnostic ni un traitement ».
    • Lundi 12 janvier, la société Anthropic a, elle, dévoilé son propre programme, Claude for Healthcare….
    • Dans un article de JAMA Psychiatry du 19 novembre 2025, des chercheurs de Google DeepMind mettent en avant la « psychométrie générative » pour évaluer la santé mentale...
    • Microsoft, sous la plume de son directeur de la stratégie technologique, Thomas Klein, a publié, le 21 novembre, le livre L’IA au service de la santé, dont un chapitre est consacré à la santé mentale. « Tout comme l’imagerie médicale ou les antibiotiques, les outils informatiques ont révolutionné la pratique médicale, les LLM et l’IA pourraient bien constituer le prochain saut quantique en santé », explique le dirigeant.

« ces acteurs sont dans le business et les données, nous, on est dans le soin, constate Stéphane Mouchabac. L’innovation numérique en psychiatrie doit obéir exactement aux mêmes règles éthiques et réglementaires que la médecine en général. »

 

Données médicales et comportementales de masse désirées par le secteur de la hightech

« Depuis des décennies, la psychiatrie moderne est à la recherche de « biomarqueurs », des indicateurs objectifs tels qu’une prise de sang ou une image cérébrale qui aideraient un psychiatre à confirmer qu’une personne souffre de dépression, de schizophrénie ou de bipolarité…. Raphaël Gaillard ajoute que « le diagnostic psychiatrique, souvent perçu comme subjectif, repose sur l’analyse d’une multitude de petits indices faite par un médecin expérimenté ». L’IA, poursuit-il, « va peut-être permettre de reproduire ce processus de manière algorithmique et externe, en ramassant des données qui sont autant de signaux faibles qu’on n’arrive pas à agréger »….

« Où vont numériquement les informations concernant les personnes ? Où sont-elles stockées ? Comment leur sécurité est-elle garantie ? », s’interroge-t-il. Le Français Guillaume Dumas, professeur de psychiatrie computationnelle à l’université de Montréal (Canada), ajoute : « En vertu du Patriot Act, les données hébergées aux Etats-Unis ne sont, selon moi, pas en sécurité car elles peuvent être saisies par un gouvernement pour des raisons politiques. »…  Depuis Harvard, John Torous apporte d’autres réserves. «…sans investissement direct et sans construction de modèles spécifiques à la psychiatrie, les résultats ne seront pas là…»

Risques et validation des nouveaux robots conversationnels spécialisés en santé mentale ?

L’article site 3 exemples de nouveaux robots conversationnels spécialisés en santé mentale .

  • Le 25 novembre 2025, la société allemande HelloBetter a officiellement lancé Ello, chatbot spécialisé en santé mentale. est aussi à l’origine d’une application proposant des programmes de thérapie cognitivo-comportementale remboursés par la sécurité sociale allemande et utilisée « par 20 % des psychiatres », notamment pour des cas de burn-out, …des psychologues entrent en relation avec l’utilisateur, par chat ou par téléphone, en cas de signal de détresse détecté. »..
  • La société américaine Slingshot AI a levé 93 millions de dollars (80 millions d’euros) à l’été 2025 pour lancer Ash, son chatbot spécialisé en santé mentale… Un journaliste britannique de The Verge a révélé le 10 décembre qu’Ash n’arrivait pas, en cas d’urgence, à lui donner le bon numéro de la ligne d’assistance au suicide : il donnait le numéro américain et non le numéro anglais, lieu de résidence de l’utilisateur…
  • Un seul projet de chatbot thérapeutique, Therabot, non commercialisé et développé par des chercheurs du Dartmouth College (New Hampshire), a pour l’instant réalisé des essais contrôlés randomisés Ces essais, dit-il, « nous montrent que des gens présentant des problèmes de santé mentale peuvent utiliser un chatbot, ce que nous savions déjà. Nous voulons une étude comparant un chatbot thérapeutique à un chatbot de simple conversation afin d’isoler l’effet réel de la thérapie ». Pour cet expert de la psychiatrie numérique, « il est inquiétant que personne n’ait encore produit une étude de haute qualité avec un véritable groupe de contrôle actif ».

 

La nécessité de la validation rigoureuse de haute qualité de ces outils spécialisés en santé mentale à base d’IA et de Chatbot est souligné par l’article.

 

 

La motivation principale de ces sociétés proposant des IA nocives et non contrôlées est "business", accroître le trafic, fidéliser ("rendre accro") les utilisateurs.

 

📢  Exigeons de nos dirigeants un contrôle de ces IA "amie, compagnon émotionel".

 

 

Une IA responsable ? Que peut-on comprendre par cette question ?

26/09/2025

Une IA responsable ? Que peut-on comprendre par cette question ?

 

Ci-dessous quelques exemples d’IA dont l'usage peut poser problème.  

  • L’IA est utilisée dans la Technopolice, avec la mise en place de caméras qui signalent aux policiers municipaux en temps réel les rassemblements « suspects » ou caméras qui permettent la « filature automatisée d’individus » …
    • Actuellement, les pouvoirs publics donnent la main au secteur privé pour promouvoir, tester des dispositifs dérogatoires à la loi actuelle en vertu d’un double principe : La nécessité d’une urgence ponctuelle et le souhait de ne pas entraver les industriels de la surveillance par des « carcans procéduraux ».
    • Mais il faudra s’assurer que cette surveillance utile pour les délinquants ne vienne pas empêcher le droit de se réunir pour un citoyen. Un cadre réglementaire de ces usages doit être défini par la loi.
  • La reconnaissance faciale a aujourd’hui un taux d’erreur minuscule (0,08% selon le Nist). Mais les erreurs sont problématiques, notamment quand elles conduisent à des arrestations sans cause justifiable.
  • ET il existe des exemples ou l’IA a conduit à des résultats erronés. Un exemple très connu, comme souligné dans plusieurs articles de 2014, l’outil de prédiction de la grippe de Google le Google Flu Trend a surestimé l’épidémie de plus de 50% par rapport à la réalité. « Comme le note Time magazine qui relaie l'information, il s’agit ici d’un cas typique de “big data hubris (exemple d'arrogance du big data, NDLR). Ce n’est pas parce que des entreprises comme Google peuvent amasser un nombre incroyable d’informations autour du monde qu’elles sont capables de les analyser correctement afin de produire une image nette de ce qui se passe (dans le monde).”  Nous devons donc rester vigilants et critiques le cas échéant sur l’IA. 
  • Nous avons eu des exemples, ces dernières années, d'IA "compagnon", ou "assistant", dont les usagers ont eu des comportements mortifères encouragés par leur "compagnon IA".
  • Exemple : ShotSpotter, le système vendu aux municipalités américaines pour détecter automatiquement le son des coups de feux, était annoncé avec un taux de performance de 97%. En réalité, les audits réalisés à Chicago et New York ont montré que 87 à 91% des alertes du systèmes étaient de fausses alertes !

Nous devons donc rester vigilants et critiques le cas échéant sur certains systèmes IA, comme le prévoit l'IA Act de l'Europe. 

 

Responsabilités lièes au choix de l'algorithme et aux données

 

La responsabilité du propriétaire-concepteur-programmeur et celle du choix des données
Larousse donne la définition du mot algorithme : « Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. ». Les algorithmes sont constitués de 2 éléments : 
•    Un choix des données extraites de la vie et des réalités humaines, organisées et sélectionnées par le programmeur-concepteur de l’outil IA. La représentation de la réalité sous forme de données numériques peut nous conduire à tort à faire passer les données pour des ‘’faits’’ en faisant oublier que les ‘’faits’’ sont toujours produits, et que les données ne traduisent jamais que les ‘’effets’’ d’un production souvent faite par des hommes avec des rapports de force et des phénomènes de domination. « Les problèmes de qualité des données sont inhérents au fonctionnement de l’IA et n’ont pas de correctifs. » (d’après  https://danslesalgorithmes.net/ de janvier 2025) 
•    un choix de séquence d’opération (du "modèle algorithmique") :  Les interventions et les réglages de modération des modèles devraient être accessibles, car ils peuvent « représenter des jugements sociaux et moraux plutôt que de simples jugements techniques ». Si un chatbot ne dit rien de ce qu’il s’est passé sur la place Tiananmen en 1989, nous devons pouvoir comprendre pourquoi, défend Zittrain. « Ceux qui construisent des modèles ne peuvent pas être les arbitres silencieux de la vérité des modèles. » (d’après  https://danslesalgorithmes.net/ de janvier 2025).

👉Ces choix (données et séquences d’opération) peuvent refléter des valeurs morales des professionnels de la programmation comme les principaux acteurs de leur construction. --> Toutes ces étapes constituent en réalité des choix éthiques.

 

 

Responsabilité du marketing autour d'un système d'IA
Engouement, battage médiatique ou buzz médiatique (« hype ») autour d'IA toxique 

Pour aller plus loin sur ce thème lire l’article de Hubert Guillaud du 6 sep 25 sur l’escroquerie de l’IA (« The IA con » HarperCollins, 2025 non traduit).

Rappelons qu’aujourd’hui, une partie des gens sur la planète n’ont pas besoin d’IA, et le développement d’outils d’automatisation de masse n’est pas toujours socialement désirable. 

Il existe des systèmes IA mis sur la marché dans le cadre d'une volonté de créer un engouement suite à un battage ou buzz médiatique ("hype"). 

Ces buzz sont souvent dus à des visions apocalyptiques :

  • les pessimistes collapsologues pensent que le développement de l’IA est dangereux
  • les accélérationnistes pensent que le développement de l’IA permettra de sauver l’humanité.

Ces extrêmistes avec vision apocalyptique devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents. Leurs visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety.

Soulignons le fait que les effets probables du développement de certains systèmes d’IA toxiques sont de

  • centraliser le pouvoir, car les infrastructures lourdes demandent de centraliser les investissements, les équipements, et donc limiter le nombre d’actionnaires capables de financer ces systèmes,
  • façonner les opinions et le comportement des utilisateurs, afin de favoriser la génération de profit aux actionnaires accompagnée d’une spéculation financière sans limite, entrainant une dégradation de la confiance dans les médias à laquelle l’IA participe activement.

plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous».

 

La mesure de l'engouement pour ces systèmes IA

 
Le journal "Les Echos" du 25 septembre 2025 affiche un article au titre explicite "Les préados deviennent gagas d'IA" qui cite ce chiffre : "22% des préados utilisent un chatbot plusieurs fois par jour" . Autre
 exemple : L’agent conversationnel ChatGPT d'OpenAI, avec ses 700 millions d’usagers, reçoit chaque jour 2,6 milliards de requêtes.   

👉 Pour résister à l’engouement de ces systèmes d’IA toxiques, nous devons avoir une volonté politique pour poser des questions sur chaque système qui se déploie.

  • D’où viennent les données ?
  • Qu’est-ce qui est vraiment automatisé ?
  • Quelle est la qualité de l’évaluation de l’utilité des systèmes. 
  • A qui bénéficie le système IA qui est envisagé de déployer, qui en souffre.
  • Quels recours sont disponibles et quelle procédure de plainte est fonctionnelle pour y répondre ?»

👉 En exigeant des réponses à ces questions, nos dirigeants doivent mettre en place des politiques pour développer les systèmes qui soient socialement bénéfiques à tous, et interdire (ou limiter) les systèmes IA toxiques pour nos sociétés et démocraties.

 

contrôle de l'IA ? Gouvernance ce l'IA ?


 

Manque de structures compétentes pour assure le contrôle de l'IA ? et textes légistlatifs appropriés ?

 

Des actions sont en cours aujourd’hui :

  • Au niveau des états : création de structures compétentes pour assure ce contrôle et mise en place de textes legistlatifs comme celles de l'Europe. Citons : 
    • A.I. safety Institut aux Etats Unis
    • AI Safety institut de l’UK (dans le « Department of Science, Innovation and Technology » 
    • L’AI act de l’Europe, et les structures de l'Europe concernés par le contrôle des réglementations
      Le projet de loi SB1047 en Californie encadrant l’utilisation de l’IA par les sociétés
       …
  • Au niveau des entreprises productrices d’IA (DeepMind, Anthropic, OpenAI, Mistral…) consciente de l’IA et consacrant des moyens de contrôle de leur système d’IA... , mais peu d'informations vérifiables circulent.
  •  L’association LoiZéro pour mettre au point des IA « sûres et fiables par construction ». Yoshua Bengio a créé l’association LoiZéro pour mettre au point des IA « sûres et fiables par construction », association qui a obtenu des aides de Bill Gates, d’Eric Schmidt (l’un des fondateurs de Google), de Jaan Tallinn (un des développeurs de Skype) ou encore de la fondation Coefficient Giving, pour un total de 35 millions de dollars (29,9 millions d’euros). L’objectif de son association LoiZéro est d' « offrir sur un plateau une méthodologie qui permet [aux grandes entreprises de la tech] d’atténuer grandement ces risques » : Ces dernières  "ne veulent pas des IA qui font des choses terribles. Ce n’est pas dans leur intérêt. Simplement, leur incitation à s’occuper de ce problème n’est pas suffisante ».  

 

 

 

 

 

Pour une réflexion sur la gouvernance de l'IA, voir notre page

-------- 

 

 

contact@egalitenumerique.fr

12 rue du Moulin de Coudret
16140 Oradour

Par e-mail

Par courrier