Egalité Numérique

📢 Nous devons tous comprendre les enjeux du numérique et de l'intelligence artificielle (IA)

car nous sommes tous concernés individuellement et comme citoyen, 
même si nous ne sommes pas à l'aise avec Internet.
 

Ce site a pour objectif de donner quelques pistes de réflexions sur les enjeux et risques liés à cette technologie

1 2

Articles individuels

Que fait l'Europe pour une souveraineté numérique face aux géants du web ?

26/01/2026

Que fait l'Europe pour une souveraineté numérique face aux géants du web ?

Rappel : Les textes de l'Europe encadrant le numérique

Le Digital Market Act (nouvelle règle de l’Union Européenne), qui a pour objectif de favoriser la concurrence des applications sur le web, est rentré en  mars 2024, dans toute l’Union européenne, et l'AI Act en aôut 2024  . Citons quelques avancées visible aujourd'hui : Les moteurs de recherche ne peuvent plus favoriser les produits de leur groupe. Les boutons « Google maps », « Google shopping » ne s’affichent plus sur la page d’accueil du moteur de recherche Google. Sur les smartphones, vous devriez avoir le choix entre les services préinstallés et télécharger directement les applications que vous voulez sans passer par App Store ou Google Play Store.

Sur le délicat problème de protéger nos données personnelles, les plateformes ont l’interdiction de les croiser sans votre consentement… Encore faut-il que l’ergonomie pour dire « non » à l’utilisation de vos données personnelles soit performante…. ce qui ne semble pas le cas actuellement.

Sur AI Act, un résumé synthètique est disponible sur le site de l'Europe : https://artificialintelligenceact.eu/fr/high-level-summary/

Rappelons l’évolution des règlements et directives sur ce domaine numérique :

  • 1995 : Adoption de la directive sur les données personnelles
  • 2000 : Adoption de la directive sur le commerce électronique  qui règlement les transactions en ligne et l’e-commerce
  • 2004-13 : Régulation du numérique par la concurrence.
    • 2004 : 1ère amende de Microsoft (497 millions €) pour  abus de position dominante »
    • 2009 : Amende d’INTEL de 1,06 milliards € pour « abus de position dominante » sur le marché des microprocesseurs
    • 2013 : 2ème amande de Microsoft (561millions €) pour avoir imposé son navigateur internet Explorer
  • 2016 : Adoption du RGPD …
  • 2014-2024 : Législation comme le « DMA » et le « DSA »
  • 2024 : AI ACT (Articial Intelligence Act)

 

👉 Principaux textes européens

RGPD

2016

Règlement général sur le protection des données personnelles

DSA

2022

Digital Service Act qui encadre les contenus

DMA

2024

Digital Market Act qui encadre la concurrence

AI Act

2024

Artificial Intelligence Act qui encadre les applications de l’IA

 

Rôle de la réglementation européenne

La réglementation européenne sur les services numériques (Digital Services Act) votée en octobre 2022 et entrée en application en février 2024 a un grand rôle à jouer pour nous protéger. Citons par exemple : 

  1. l’interdiction des dark patterns et de la publicité ciblée sur mineurs,
  2. l’obligation de fournir des outils de signalement aux usagers (pour repérer les fausses informations)
  3. l’obligation de transparence sur les algorithmes de modération et de recommandation
  4. la lute contre les monopoles des grandes plateformes

 

 

Enfin soulignons les délais long de mise en application de ces textes. Le règlement DMA du 14 septembre 2022 est, avec le DSA, progressivement applicable depuis le 2 mai 2023, entré totalement en vigueur le 6 mars 2024. Et l' AI Act est rentré en vigueur en août 2024  avec une mise en application progressive jusqu’en août 2026

    • 2 février 2025 : Interdictions relatives aux systèmes d’IA présentant des risques inacceptables ;
    • 2 août 2025 : Applications des règles pour les modèles d’IA à usage général ; nomination des Autorités compétentes au niveau des Etats membres de l’UE ; 
    • 2 août 2026 : Toutes les dispositions du RAI deviennent applicables, en particulier les règles relatives aux systèmes d’IA à hauts risques, comme ceux traitant de la biométrie.

 

Remarque (date le 24 oct 2025) sur les diffcultés d’application des directives et réglements européens   :
Exemple de décisions de justice sur le respect par META basée sur le DSA

Un tribunal néerlandais a ordonné à Meta d'accorder aux utilisateurs de Facebook et d'Instagram aux Pays-Bas le droit de définir un flux chronologique par défaut. Cette décision, rendue suite à une plainte de Bits of Freedom, une association néerlandaise de défense des droits numériques, est l'une des premières en Europe à voir des dispositions clés de la loi sur les services numériques (DSA) appliquées avec succès dans le cadre d’une  procédure civile, explique Tech Policy Press. Le tribunal d'Amsterdam a estimé que les flux algorithmiques automatiques de Meta constituent un dark pattern interdit au sens de l'article 25 du DSA, car ils restreignent la capacité des utilisateurs à faire des choix autonomes quant à la manière dont ils consomment l'information - un droit que le tribunal a qualifié d'essentiel pour une société démocratique. En raison notamment des élections néerlandaises du 29 octobre, Meta doit donc modifier ses plateformes rapidement, sous peine d'amende. Dans une déclaration à Reuters, Meta a annoncé son intention de faire appel de la décision sans que cela ne suspende l’ordonnance à se mettre en conformité.

Dans un article du 12 novembre du journal Le Monde, Thierry Breton, ancien commisaire européen en charge du numérique, insistait sur le manque de réaction de l'Europe "conformément à la loi".   Auprès du Monde, le 5 novembre, Alexandre Archambault, avocat spécialiste du droit numérique rappelait, « Un blocage d’une très grande plateforme numérique telle que Shein exige de suivre une procédure stricte, conformément au règlement européen sur les services numériques [Digital Services Act, DSA], notamment en obtenant l’avis de la Commission européenne, après enquête, et en passant devant un juge européen ».  Saisie à plusieurs reprises par des États membre sur la conformité de Shein au DSA (notamment le 28 juin 2024, le 5 février et le 26 mai 2025 par la Belgique, la France, l’Irlande et les Pays-Bas), la Commission européenne n’a pas jugé bon, jusqu’ici, d’ouvrir une enquête. 

 

Le premier rapport de la Commission européenne sur l'état d'avancement de la décennie numérique : Situation de la France

 

La Commission européenne a publié son rapport annuel sur l’état d’avancement de la décennie numérique. Ce rapport montre les progrès accomplis dans la réalisation des objectifs fixés pour 2030 dans le programme d’action pour la décennie numérique.

 

Principales conclusions du rapport:

  • Infrastructures numériques: malgré certaines avancées, le déploiement des infrastructures de connectivité, telles que la fibre optique et les réseaux 5G autonomes, progresse lentement
  • Numérisation des entreprises: l’adoption de l’intelligence artificielle (IA), de l’informatique en nuage et des mégadonnées par les entreprises s’est améliorée, mais elle doit encore s’accélérer
  • Compétences numériques: seuls 55,6 % des Européens possèdent un niveau de compétences numériques de base, tandis que la disponibilité de spécialistes des TIC possédant des compétences avancées reste faible, avec un écart important entre les hommes et les femmes, ce qui entrave les progrès en matière de cybersécurité et d’IA
  • Numérisation des services publics: en 2024, l’Union a accompli des progrès constants dans la numérisation des services publics essentiels, mais une part importante des infrastructures numériques publiques continue de dépendre de prestataires de services établis en dehors de l’Union

 

👉 Il apparait donc que la numérisation de l'Europe aujourd'hui repose sur l'utilisation en très grande partie sur l'utilisation de plateformes numériques américaines, rendant l'Europe vulnérable au pressions américaines dans le cadre d'un marchandage généralisé de vente et d’achat de services et de biens avec le gouvernement Trump. 

👉Les données disponibles montrent des problèmes persistants, tels que la fragmentation des marchés, la complexité excessive des réglementations, la sécurité et la dépendance stratégique. 

Le rapport souligne les avantages potentiels d’une action audacieuse, susceptible de stimuler le PIB de l’Union européenne.

 

 

Depuis 2024 les actions de l'Europe

Depuis début 2024, l’UE a intensifié ses actions réglementaires et judiciaires dans le cadre réglementaire global (DMA, AI Act, RGPD…) permettant de contrôler, sanctionner et encadrer l’activité des GAFAM et des éditeurs de logiciels IA.  avec :

  1. Des enquêtes et premières sanctions sous le cadre du DMA (Digital Markets Act),
  2. Des contrôles renforcés sous le cadre du AI Act (qui rentre progressivement en vigueur),
  3. Des procédures sous le cadre du RGPD (Règlement de protection des données),
  4. Une montée en puissance des droits des consommateurs et la responsabilité des plateformes

(1) Enquêtes et sanctions dans le cadre du Digital Markets Act (DMA)

Ces enquêtes concernant Google et Meta portent notamment sur : 

  • L’interdiction pour Google de privilégier ses propres services dans les résultats de recherche et sur Android. 
  • Les pratiques de Meta concernant l’accès aux données et la portabilité des utilisateurs entre plateformes.

En mars 2024, la Commission a infligé une amende à Google pour non-respect partiel des obligations DMA liées à la publicité en ligne, marquant la première application concrète de ce nouveau cadre (*). 

(2) Contrôles renforcés dans le cadre de AI Act

  • Des audits et contrôles ciblés ont été lancés sur plusieurs éditeurs de logiciels IA, notamment ceux proposant des systèmes d’IA à haut risque, comme les IA à usage biométrique, de surveillance ou de recrutement automatisé. Ces contrôles sont menés par les autorités nationales de surveillance en coordination avec la Commission.
  • La Commission européenne a ouvert une enquête formelle en février 2024 concernant la conformité des outils d’IA générative (notamment ChatGPT et intégrations dans Microsoft 365) avec les exigences de transparence, de sécurité et de protection des données.

(3) Procédures dans le cadre du RGPD

Plusieurs autorités de protection des données (CNIL en France, DSB en Irlande) ont annoncé de nouvelles procédures pour non-respect des règles RGPD, notamment en matière de consentement des cookies, de traitement des données publicitaires et de profilage utilisateur. Un groupe renforcé d’experts RGPD coordonne les enquêtes transfrontalières contre les GAFAM, accélérant les procédures et harmonisant les sanctions.

(4)Projet de directive sur les droits des consommateurs et la responsabilité des plateformes

En cours d’examen en 2024, cette directive vise à renforcer la responsabilité des plateformes vis-à-vis des contenus et des pratiques commerciales trompeuses.(*)

 

Citons plusieurs affaires en 2025 et début 2026  : Les actions timorées de l'Europe

Début septembre 2025, l’europe inflige à Google une amende de 2,95 milliards d’Euros. L’eurodéputé allemand Andreas Schwab a jugé, sur le réseau social X que le niveau de l’amende était « exceptionnellement bas ». Si l’on se réfère aux pratiques de la Commission dans des affaires similaires, explique-t-il, elle aurait dû atteindre 6 milliards d’euros. Le 25 aout, Donald Trump avait menacé d’imposer de nouveaux droits de douane les pays aux régulations numériques trop contraignantes en déclarant « L’Europe a ‘’attaqué’’ aujourd’h’hui un autre grande entreprise américaine, Google »

Début septembre 2025,  la Commission ne demande pas à Google de céder une partie de ses activités pour se conformer à la législation européenne, alors qu’en 2023, dans ses conclusions préliminaires, elle évoquait ouvertement cette option. Le conseil des éditeurs européens, qui représente les intérêts de plusieurs éditeurs de presse européens dont The Guardian, Alex Springer ou Rossel, et qui est à l’origine de l’enquête de l’Union européenne, a, pour sa part, estimé, vendredi, que seule une cession pourrait mettre fin au entraves à la concurrence commises par Google.

 

Remarque : Aux USA, plusieurs affaires menées par des juridictions différentes contre Google sont en cours. Par exemple, « un juge fédéral américain a estimé que, contrairement à ce que demandait l’administration Trump, Google n’avait pas à se séparer de son navigateur Chrome. La justice des Etats-Unis a néanmoins admis que les pratiques de Google et sa position de leader dans la recherche en ligne présentaient les caractéristiques d’un monopole illégal. Si le juge n’a pas infligé de forte amende à la firme, il lui a imposé de davantage partager ses données avec ses concurrents et demandé des limitations sur la conclusion des contrats de distribution exclusive » (d’après le journal Le Monde du vendredi 6 septembre ».

 

Mi janvier 2026, Bruxelles a décidé, lundi, de repousser, du 28 janvier au 25 février, la présentation d’une proposition législative – « l’accélérateur industriel » –, qui prévoit, notamment, de promouvoir le « Made in Europe » dont Washington n’est pas le plus fervent adepte. De même, la Commission a repoussé une décision qui doit soumettre WhatsApp, en tant que « très grande plateforme », aux réglementations numériques européennes les plus strictes. 

 

Europe et l'indépendance dans le secteur des semi-conducteurs

Le règlement européen sur les semi-conducteurs entrée en vigueur le 21 septembre 2023 renforcera la compétitivité et la résilience de l’Europe dans les applications et les technologies des semi-conducteurs, et contribuera à réaliser les transitions numérique et écologique, en accentuant l'avance technologique de l’Europe dans ce domaine.

Citons aussi la mise en place d'une "Junk Undertaking" (entreprise commune européenne) qui devrait être dédiée aux semi-conducteurs, principalement ceux de nouvelle génération, en espérant que cette initiative soit positive, et donc que l'Europe affiche une ambition du niveau des plans d'investissements étanusiens, taïwanais ou chinois. 

 

Pour une politique française de souveraineté Numérique ? 

 

La France pourrait favoriser le développement de solutions souveraines françaises ou/et européennes en soutenant les offres existantes des acteurs du secteur ainsi que des projets « open source » existants ou à lancer. Ce soutient pourrait se faire auprès des acteurs principaux français et européens dans ce secteur (éditeurs, entreprises de services numériques, directions des services informatiques utilisatrices) par :

  • la commande publique, 
  • des mesures incitatrices pour les entreprises (dispositif de labellisation valorisant à l’export, évaluation de l'aide à la souveraineté européenne ou française dans leur bilan sur leur responsabilité sociétale), 
  • un cahier des charges spécifiques d'un internet sécurisé (dans un monde de guerre numérique : voir notre article "Information numérique : Une nouvelle guerre ?"  et au service des citoyens respectant les lois régissant le marché européen,
  • des structures publiques, comme l' ANCII et l'ARCEP pour le contrôle des plateformes "contrôleurs d'accès" et plus généralement les applications utilisées par les entreprises et les particuliers (citons aussi la Cnil)
  • des lois efficaces pour faire respecter les cadres juridiques français et européens, ce qui n'est pas le cas aujourd'hui
  • une volonté politique pour faire jouer tous les leviers législatifs et économiques pour rétablir une souveraineté française dans le domaine numérique, qui semble se heurter parfois au cadre européen ou au cadre constitutionnel français. Citons :
    • La loi Avia (2020) contre les contenus haineux sur Internet a été jugée en grande partie inconstitutionnelle,
    • La loi Marcangeli (2023) instaurant une majorité numérique à 15 ans, promulguée, n’a jamais été appliquée, du fait de son incompatibilité avec le droit européen.

 

 

Un remise en cause de la politique européenne sur le numérique ?

L'Europe a fait une rapport par pays sur la décennie numérique 2025 : Voir le rapport pour la France


👉 voir l’article de la revue européenne des médias et du numérique : https://la-rem.eu/2024/12/commission-von-der-leyen-ii-quelles-orientations-pour-la-strategie-numerique-europeenne/  
Cet article site le rapport Draghi Mario (ex président de la Banque centrale européenne de 2011 à 2019) : « The future of European competitiveness – A competitiveness strategy for Europe », Bruxelles, Commission européenne, 9 septembre 2024.

Extrait de l’article : « En effet, après avoir longtemps prôné une approche basée essentiellement sur la promotion de la concurrence et sur l’adoption de normes qu’elle espérait voir se diffuser au reste du monde, la Commission donne cette fois des signes d’un virage en faveur d’une approche plus défensive et autocentrée, articulée autour de la notion de « souveraineté technologique » et de soutien aux industries européennes. »

 

Mais cette idée de souveraineté ne semble pas majoritaire au niveau européen ?

 

Pour garder une souveraineté européenne dans le domaine numérique, en prenant de vitesse les politiques de la communauté européenne, par nature non agiles et consommatrice de fonds de l’UE, avec un logiciel macroéconomique européen libre échangiste et pro-concurrence inopérant dans cette nouvelle ère de la mondialisation, l’idée émergente est que la formation rapide des champions européens numériques se fera par les groupes industriels européens eux-mêmes :

  • guidés par les profits à venir,  
  • soutenus par une législation du type « buying act » obligeant les gouvernements européens  à s’approvisionner prioritairement en biens (équipements, services) produits sur le sol européen et une législation empêchant le rachat de nos champions par des fonds étrangers américains ou chinois.

 

Nous pouvons craindre que, la Commission Européenne, sur la pression de certains pays européen, se montre plus conciliante avec les géants américains de la tech lors d’enquêtes menées dans le cadre du DMA ou du DSA. 

  • Pour Alexandre De Streel, professeur de droit européen à l’université de Namur (Belgique), « le risque est majeur de voir la Commission européenne ou des Etats membres privilégier la protection de certains secteurs économiques, comme l’automobile, en choisissant d’appliquer moins strictement le DMA et le DSA. On peut déjà constater que la Commission ralentit la cadence, ouvre moins d’enquêtes depuis le retour de Donald Trump au pouvoir », observe-t-il.
  • L’enquête lancée, en décembre 2023, contre X, l’entreprise d’Elon Musk, pour violation supposée du DSA s’éternise. La stratégie des avocats de X de faire traîner les choses en « inondant les services de la Commission de contre-arguments » est peut-être une partie de l'explication.
  • Rappelons le contexte des négociations actuelles sur la loi "Omnibus" qui vise à réduire les charges administratives des entreprises, notamment par une simplification du reporting de durabilité et une allègement des réglementations, tout en maintenant la qualité des données et en favorisant l’efficacité économique.  « Il est très important que la Commission garantisse que cette loi ne sera pas une façon de répondre à la pression de Donald Trump, sinon il doublera la mise et s’en prendra à d’autres législations », prévient déjà Andrea Renda.
  • Certains évoquent la mise au rebut de la taxe européenne sur le numérique ou l’abandon de la directive sur la responsabilité en matière d’intelligence artificielle. « Trump veut détruire l’Union européenne, conclut Alexandre De Streel. Céder à ses demandes ou jouer l’immobilisme serait un très mauvais calcul. » 

 

Ci-dessous l'avis de  ,   le 11 septembre sur LinkedIn 

"Ursula von der Leyen ferait bien de relire le rapport Draghi. Car elle l’a trahi, et plus d’une fois. Notamment dans le domaine de la souveraineté numérique.
Nous avons accepté que Trump se retire de l’accord sur la taxation des multinationales, soit disant pour apporter de la stabilité à nos entreprises. Dès le lendemain Trump s’attaquait à Ørsted et Novo Nordis et nous menaçait de représailles en cas de taxation des géants du numérique. Aujourd’hui c’est son soutien même à l’OCDE qu’il est en train de remettre en cause. ...
Il faut donc évidemment taxer les géants du numérique, puisqu’ils ne vivent pas sans le marché européen.
Mais nous devons aussi mettre en place une vraie politique de souveraineté numérique en soutenant nos acteurs européens -via une politique d’achats ciblés notamment - et en défendant notre réglementation."
Citons Yoshua Bengio, chercheur en IA,  prix Turing 2019 (équivalent du Nobel pour l’informatique) (artcile Le Monde du 23 janvier 2026) « L’Europe doit se réveiller. Les signaux politiques devraient être assez clairs pour se mobiliser comme bloc parce qu’individuellement les pays ne peuvent pas faire grand-chose que ce soit en IA ou en géopolitique. Ce n’est pas suffisant de réglementer. Il faut avoir des solutions techniques. Et si l’Europe n’a pas d’IA qui soit compétitive avec celle des Américains et des Chinois, elle ne pourra pas être à la table de la discussion sur la manière d’éviter ces catastrophes. »

 

 

Lutter contre la désinformation, pour notre démocratie, et contre l'IA slop

15/10/2025

Lutter contre la désinformation, pour notre démocratie, et contre l'IA slop
La première question à se poser, quand nous prenons connaissance de faits, est : Quelle est l'intention de celui qui nous la donne ? Et apprenons à distinguer la désinformation, la mésinformation, et mal information
• Désinformation : informations fausses et délibérément créées pour nuire à une personne, un groupe social, une organisation ou un pays.
• Mésinformation : informations fausses mais non créées dans l'intention de nuire.

• Mal information : informations basées sur la réalité, utilisées pour infliger un préjudice à une personne, un groupe social, une organisation ou un pays (sources Unesco).

 

Cheminement allant des faits à la formation de nos opinions

Donnons deux exemples de moyens de diffuser de la fausse information:

 

Vérification de l'information et manipulation de nos opinions

 

Nous devons donc apprendre à vérifier les informations que nous recevons, et devenir des "fact checkers" permanents.

 

Les plateformes profitent d’un statut privilégié de simples canaux de partage d’informations. En effet au nom de l’article 230 du Communications Decency Act, voté en 1996, les plateformes ne peuvent être poursuivies en justice pour les contenus publiés par leurs utilisateurs. Ce régime est complètement distinct de celui des médias, tels les journaux, qui sont tenus à une responsabilité éditoriale.

Les « réseaux sociaux » et de nombreux site internet sont, pour beaucoup d'entre nous, le « carburant » de nos réactions intuitives, de nos affects, en stimulant la production de dopamine, et en  nous enfermant dans des bulles d’informations parfois non vérifiées, parcellaires ou fausses.  David Chavalarias publie en 2022 « Toxic Data », tout y est très simplement expliqué : Comment les mouvements d’opinion sont aujourd’hui hautement manipulés et amplifiés sur les réseaux ou les messagerie au point que nos démocraties vont y laisser leur peau.

En 2016, "les mathèmaticiens de  Cambidge Analytica font effacement campagne pour le oui  au Brexit avec leurs algorithmes d'influence en ligne personnalisée. Quelle humiliation pour la psyché humaine de voir ces modèles réduisant nos subtiles personnalités à cinq nombre, mesurant ouverture, conscienciosité, extraversion, amabilité, neuroticisme, pour mieux nous manipuler" (extrait podcast Radio France, épisode 3 "intelligence artificielle : utopie dystopique" de Cédric Villani). 

La Boétie décrit, dans son "Discours de la servitude volontaire", l'obéissance des peuples à la tyrannie, expliquant que celle-ci est maintenue par l'habitude, la corruption et la bêtise, plutôt que par la force. 

La tyrannie, exercée sur notre psychisme des réseaux sociaux et de certaines applications internet, doit être combattue !

 

Pour la démocratie, les débats sont nécessaires,

Un minimum d’empathie envers ses concitoyens est une condition indispensable pour un débat serein. Certains politiciens ont une autre opinion sur l'intérêt des débats serein : 

« La faiblesse fondamentale de la civilisation occidentale est l’empathie »

expliquait Elon Musk dans un interview sur le podcast de Joe Rogan. 

 

 

L'émergence d'une IA SLOP, média de mauvaise qualité

Le slop (aussi appelé AI Slop) est un média de mauvaise qualité, comprenant des textes, des sons et des images, réalisé à l'aide d'une technologie d'intelligence artificielle générative. Inventé dans les années 2020, le terme a une connotation péjorative proche de celle de « spam ». Les contenus des « slops » sont ensuite réingérés dans les IA, et le cycle continue.

Citons l’article de Hubert Guillaud sur le texte de  la chercheuse Kate Crawford dans une tribune pour e-flux , « Vers l’effondrement métabolique » du 19 septembre 2025 (dans la Lettre hebdomadaire de café IA):    

(1) L’industrialisation de contenus synthétiques réalisés à l'aide de l’IA

« Les producteurs de contenus synthétiques atteignent des taux d’engagements supérieurs aux influenceurs humains qui semblent de plus en plus indiscernables des humains, comme l’était, dès 2018, l’une des premières influenceuses synthétiques, Lil Miquela. Les équipes de création de contenu déploient des outils d’IA pour générer des centaines de publications, d’images et de vidéos potentielles, puis utilisent l’analyse de l’engagement pour identifier les combinaisons les plus addictives afin de les optimiser. L’industrialisation du contenu viral s’auto-accélère. Les fonds destinés aux créateurs de contenus se transforment en subvention du seul contenu synthétique, à l’image de TikTok ou Meta qui sponsorisent les usines à slops en distribuant des revenus du fait de leur viralité… »

(2) Effondrement de l’IA slop ?

« L’évolution vers une IA générative massive et gourmande en données affecte l’environnement, le travail, la culture, la science … Les LLM sont en train de supplanter les sources d’information en ligne, cannibalisant les marchés de la création de contenu….De nombreuses études ont montré que les systèmes d’IA dégénèrent lorsqu’ils se nourrissent trop de leurs propres productions – un phénomène d’effondrement que les chercheurs appellent MAD (La maladie du modèle autophage). En d’autres termes, l’IA s’autodétruira, puis s’effondrera progressivement dans le non-sens et le bruit….’’L’IA slop n’est pas une aberration, mais une caractéristique inévitable du fonctionnement des médias génératifs’’. Cette rupture métabolique promet de multiples effondrements, prédit la chercheuse : effondrement des modèles, effondrement écologique et effondrement cognitif s’entrecroisent dans une forme de polycrise. »

 

Dégradation du paysage informationel

 

Prenons la mesure de la dégradation du paysage informationel à cause de la montée en puissance des IA génératives et la prolifération du slop.

 

  1. L’apparition de contenus absurdes et viraux produits très facilement par des outils comme Sora, Veo ou Runway Gen qui permettent à quiconque de créer des vidéos hyperréalistes. La distinction du vrai du faux n’est pas facile.
  2. Le changement d’attitude des consommateurs d’information en ligne :  

    Les assistants IA remplacent déjà les moteurs de recherche pour de nombreux utilisateurs. Selon le Digital News Report 2025 de l'Institut Reuters, 15 % des moins de 25 ans utilisent des assistants d'IA pour s'informer, contre 7 % de l'ensemble des consommateurs d'informations en ligne. » 

  3. L'énorme volume  de contenus générés par IA dans le web :
    «Plus de 1000 médias en français, générés par IA, polluent le web (et Google)», titrait Next en février dernier. 14 à 16 millions d'internautes français consultent chaque mois l'un des 251 sites d'infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d'infos GenAI que de vrais sites d'actualités. 77 % y sont envoyés par l'un des services de Google (Discover, Search ou Actualités), et 10 % via Meta. 
    Plus de la moitié des articles mis en ligne dans l’espace d’une journée sont créés sur des IA, d’après une étude de l’agence Graphite, publiée courant octobre et basée sur l’analyse de 65000 textes. Ces articles :
    • sont  souvent des plagiats remixés d’enquêtes journalistiques datant parfois de plusieurs mois
    • ont aussi la particularité d’être publiés sur des sites zombies. Il peut s’agir de médias étudiants ou locaux laissés à l’abandon, ou d’anciens sites d’entreprises de livraison de fruits et légumes ou de promotion d’événements passés dont l’URL a été récupérée.
    • seraient pour le moment largement invisibles et peu recommandés par Google ou ChatGPT.

Pour plus d’information, voir le site de la Fondation Nieman pour le journalisme, une institution majeure de l'Université de Harvard, visant à promouvoir et élever les normes du journalisme.

 

 

  • L’accès sur internet à des articles issues d’une source « vérifiée » est pas facile
    • l’information relayée par les «moteurs de réponses» se trouve bien souvent dégradée. D’après une étude dirigée par la BBC, publiée le 22 octobre, 45% des réponses données par ChatGPT, Copilot, Gemini et Perplexity (sur 3000 requêtes analysées) présentaient au moins un problème important, tandis que 31% des réponses révélaient de graves problèmes de sourcing.
    • La distinction entre les sites générés par de vrais sites de presse et issues d’un travail journalistique et les sites zombies diffusant des articles générés par des IA Slop n’est pas faite par le principal pourvoyeur d’audience, l’agrégateur Google Discover. Les pages des sites zombies sont souvent suffisamment optimisées en SEO pour pouvoir apparaître dans l’agrégateur Google Discover.
  • Les médias traditionnels sont en difficultés pour diversifier leurs sources de revenus (dû en particulier au bouleversement du marché des recettes publicitaires, et à la force algorithmique des grandes plateformes qui recommande le contenu sur les pages que vous consutez), ou sont rachetés par des actionnaires très riches peu scrupuleux sur la nécessité d’une information vérifiée par des « fact checkers » reconnus.

 

  • Rappelons la situation actuelle de notre dépendance à des entreprises américaines ou chinoises propriétaires des réseaux sociaux qui n’assument pas le statut d’éditeurs de contenu, mais qui nous imposent leur ligne éditoriale par l’intermédiaire de leurs algorithmes. Seuls les contenus recommandés par leurs algorithmes sont vus, les autres demeurent invisibilisés. Ces algorithmes sont élaborés en toute opacité, basés sur des calculs purement quantitatifs arrimés à des objectifs commerciaux ou politiques, par une poignée d’acteurs privés qui effectuent le tri entre les contenus visibles et ceux que personne ne verra. Dans un article du journal Le monde du 10 janvier 2026, à l’approche de la présidentielle de 2027, Arthur Mensch, fondateur et dirigeant de Mistral AI (start-up française) alerte sur le risque de voir se former un « oligopole de l’information » avec des assistants IA comme ChatGPT ou Grok, détenus par des acteurs américains et possibles « organes de contrôle de la pensée »… Et de prédire pour les prochaines élections des tentatives de manipulation de l’opinion ou des scandales, comme la récupération de millions de profils Facebook par l’agence Cambridge Analytica lors de la première campagne présidentielle de Donald Trump, en 2016, à l’époque où « on ne mesurait pas encore très bien l’influence des réseaux sociaux ». 

 

Quelques chiffres de mesure de ce phénomène d'IA Slop

Jean-Marc Manach, Next.ink, 18 décembre 2025 soulignait la «véritable "pollution" numérique et médiatique» et évoquait prés de 10 000 sites d’information en français générés par IA

«Plus de 1000 médias en français, générés par IA, polluent le web (et Google)», titrait Next en début (février) 2025, et courant 2025, 8900 sites ont été identifiés comme «en tout ou partie générés par IA» (GenAI), administrés (et monétisés) par plus de 200 éditeurs.

Début octobre, Next révélait que près de 20% des 1000 sites d'info les plus recommandés par Google Discover, et 33% des 120 sites les plus recommandés par Google News, à la rubrique Technologie, étaient générés par IA. L'algorithme Discover de «recommandation de contenus» de Google, la principale source de trafic des sites journalistiques français, est en effet devenu une «pompe à fric» pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google.

Mesure d’audience des sites recommandés par Google Discover :
% de la population consultant des sites d’information générées par l’IA, dit sites « GenAI »

 

% de la population fin 2025 consultant des sites GENAI

Source : Next et le Groupement des éditeurs de services en ligne (http://www.geste.fr/ , groupement fondé en 1987 qui représente et défend les intérêts des éditeurs de contenus et services en ligne, en analysant les mutations économiques et législatives du secteur numérique, dont le Président est Bertrand Gié, Directeur délégué du pôle News du Groupe Figaro, et qui regroupe 104 membres, incluant les plus grands groupes de presse français), et l'entreprise de mesure d'audience Médiamétrie ont cherché à quantifier le phénomène à l’échelle du marché, en d'analysant l'audience des 251 sites GenAI figurant ou ayant figuré dans le Top1000 des sites recommandés par l'algorithme Discover de Google. Analyse faite sur un panel de près de 20000 internautes constitué par Médiamétrie indique que les 251 sites « GenAI » figurant ou ayant figuré dans le Top1000 des sites recommandés par l'algorithme Discover de Google.

 

👉 Les inactifs, en particulier les personnes âgées, semblent en effet plus particulièrement susceptibles de tomber dans le piège de ce type d'infox et images GenAI, au point d'être qualifiées de «pièges à boomers», ou «boomer traps»

 

 

La frontière entre vrai et faux s’efface chaque jour davantage.

Pour aller plus loin : lire les articles

 

Nos conseils pour lutter contre 
la désinformatio
n et   "WEB-IA Slop" 

 

👉  A notre niveau personnel : Nos actions au fil de l’eau de nos usages d’internet

 

Prise de conscience des conséquences néfastes des interfaces numériques et des algorithmes des plateformes

  1. En matière de liberté : Les interfaces de ces systèmes numériques construits à base d'IA « peuvent masquer nos réelles possibilités d’agir ou orientent nos décisions, et restreindre peu à peu notre autonomie »
  2. En matière de santé, citons « les processus compulsifs et addictifs … en jeux »
  3. En matière d’écologie, la consommation énergétique de tous les algorithmes, matériels et infrastructures numériques, leur modes de fabrication utilisnat de l'eau et des métaux rares, et l’incitation à la sur-consommation ne vont pas dans le sens du respect des principes écologiques.
  4. En matière de démocratie, ces systèmes pour certains « sapent l’apprentissage du débat contradictoire au profit du clash et de la violence verbale sur Internet. En effet, ces processus de captation de l’attention… ont tendance à favoriser les contenus choquants et les fausses informations, à polariser les utilisateurs, et à réduire leur capacité à comprendre d’autres points de vue, et même à le vouloir. L’économie de l’attention atrophie notre capacité à partager des idées, à échanger, bref, appauvrit notre expérience du monde ».

 

Choix de vos sources numériques d'information  
Choix de nos applications numériques / plateformes les plus « éthiques », et moins néfastes à l’environnement et à la protection de vos données personnelles : 

    1. Exemple : Messagerie concurrent de Whatsapp, Navigateur et Moteur de recherche (Quant, ….),
    2. Identifier les modèles d’IA peu gourmande en données et énergie…
    3. Il existe des médias gratuits qui affichent leur volonté de diffuser une information vérifiée (comme Hugo Decrypt). L'un des enjeux réside dans notre définition d’une "information de qualité" : Nous devons nous impliquer mieux et davantage dans cette définition. 

Vérification de l’information / lutte contre les deepfakes 

    1. Vérifier les informations écrites, les images et vidéos et sons, que vous recevez :
      1. en premier lieu avec votre analyse de bon sens et une observation attentive pour repérer des éléments suspects de l’information reçue, soyons conscient de nos propres biais (nous aimons souvent nous divertir avec des informations que nous ne questionnons pas assez)
      2. en vous posant les questions : Qui est l’émetteur du message reçu ? Qui est derrière la plateforme  ou le site ? Qui finance cette diffusion d’information ?
      3. en recoupant cette information avec d’autres sources que vous jugez fiables,
      4. ou en vous faisant aider d’outils disponibles sur internet (voir ci-dessous)
    1. Ne partager cette information sur vos réseaux ou par mail qu’après cette phase de vérification

Adoption d'une posture de responsabilité :

  1. Exiger et s'imposer une rigueur évaluative des outils que nous utilisons pour s'informer, 
  2. Soyons prêt à dépenser un peu d’argent pour accéder à des sites fiables (La presse écrite, audiovisuelle ont en très grande majorité des contrats avec des « fact checkers » (vérificateur d’information, comme l’AFP…). Quand un site est « gratuit », cherchez à comprendre son modèle économique. Produire de l’information « vérifiée » coûte de l’argent. 

 

👉  A notre niveau de citoyen, consommateur, investisseur :

 

 

💡 Comme citoyen, participer aux réflexions, et actions nécessaires à la gouvernance du numérique ;

    1. Exprimer vos demandes aux politiques qui doivent concevoir nos lois numériques et les faire appliquer (en particulier lors des différentes élections), comme par exemple obliger les réseaux sociaux commerciaux à s’ouvrir à d’autres services de recommandation de contenus, laissant aux utilisateurs la liberté de choisir quel système leur recommande les contenus, selon quels critères et dans quel but.
    2. Demander à l’Etat ou/et aux administrations territoriales de :
      1. nous informer et former correctement, pour nous protéger des risques de l’IA,
      2. avec la mise en place de structures-organisations adéquates au niveau État, départemental 
      3. en utilisant des produits européens, ou "non liés à une puissance étrangère hostile"
      4. et comme le préconise Ethan Zuckerman, directeur de l’infrastructure numérique de l’Etat, participer à la mise en place de média alternatifs sociaux non surveillants, construits sur des déploiements algorithmiques basés sur l’analyse de contenus qui œuvre au « bien commun », plutôt que sur l’analyse des visiteurs.
        Il reste que le financement de ces services d’intérêt général, indispensable à la démocratie, et leur gouvernance indépendante de l’État est à inventer.

Remarque : Pour mémoire, rappellons l’expérience de la radio dans les année 30. John Reith a imaginé une radio publique, la BBC, qui ne soit contrôlé ni par les états, ni par les entreprises, financé par l’État, mais indépendante du gouvernement. Il propose de mettre en place des services publics de la communication démocratique. Et Il existe aujourd’hui des services mondiaux numériques non commerciaux Wikipedia, Openstreet ou Signal.

c. « Sapere aude ! » (Ose savoir !) … pour réfléchir à l’IA et être citoyen
« Sapere aude ! » ..écrivait Emmanuel Kant en 1784 …Connaître la vérité est un choix. Ce n’est pas facile, et c’est presque toujours douloureux.  La pensée n’est pas un privilège réservé aux experts. C’est le premier acte de résistance. Et elle est à la portée de tous. » (Extrait article Grand Continent 28/12/2025 Mariam Martínez-Bascuñánm). Nous n’avons pas besoin d’être informaticien pour réfléchir la révolution qu’est l’intelligence artificielle.

 

👉Comme investisseurs et consommateur :

      1. 💡investir et soutenir les réseaux sociaux alternatifs non-commerciaux et décentralisés. 
      2. 💡investir dans la recherche et le développement de systèmes qualitatifs et citoyens. Différents systèmes de recommandations pourraient être développés par des médias, des institutions académiques, des acteurs associatifs, qui se verraient ainsi dans la capacité de recommander des contenus selon des critères diversifiés et transparents, qui s’appuient sur les avis de différentes communautés de pairs. Et comme investisseur ou membres d'associations, nous pourrions collaborer à la mise en place :
        1. de label « site d’information vérifiée » avec des « fact checkers » (vérificateur d’information, comme l’AFP…), ou
        2. de « réseau social avec un organe modérateur reconnu et labélisé » ou
        3. d'une notation « éthique » des sites et réseau sociaux sur le respects de nos lois et ceux de l’Europe (DSA, DMA, RGPD, IA Act)
      3. 💡Participer à une action collective de choix ou de refus de produits « gratuits ». Evitez X, Instagram, Facebook... et nous aider les uns les autres à devenir un consommateur "éthique" du numérique.

 

 

 

Pour conclure sur cet effort que nous devons tous faire, citons un extrait de l'article extrait article Grand Continent du 28/12/2025 de Máriam Martínez-Bascuñánm :

 « …la sortie de l’ère de la post-vérité ne passe pas seulement par le rétablissement de la crédibilité de la presse ou la restauration de l’intégrité des institutions. Il faut aussi une citoyenneté qui ne se laisse pas tenter par le confort des certitudes préfabriquées ou par l’écho réconfortant de la tribu. 

Connaître la vérité est un choix. Ce n’est pas facile, et c’est presque toujours douloureux. 

Mais c’est un choix. Arendt a proposé comme modèle de citoyen pensant quelqu’un qui n’était ni philosophe de profession ni sage reconnu : Socrate, « un citoyen parmi les citoyens, qui n’a rien fait ni prétendu, sauf ce que, selon lui, tout citoyen a le droit d’être et de faire ».  La pensée n’est pas un privilège réservé aux experts. C’est le premier acte de résistance. Et elle est à la portée de tous. »

Nous devons exiger le contrôle du "processus technicien" dont le numérique est un terrain de prédilection. Celui-ci - de fait - poursuit son développement de façon incontrôlée ("on n'arrête pas le progrès", mais il faut combattre les usages nocifs de la technique). 

 

 

 

Quelques sites à connaître

Pour aller plus loin sur ce thème de l'IA Slop, voir la conférence d' Ethan Zuckerman à Sciences Po du 17.05.2022  : "Nous devons imaginer un meilleur internet"

 

Pour vous informer sur la cyber-malveillance, nous vous conseillons d'aller sur le site du gouvernement : 

Assistance aux victimes de cybermalveillance | Site Officiel

 

Quelques sites pour s’informer et comprendre la désinformation, et pour identifier l’origine d’une information virale, d’une photo ou d’une vidéo hyper-truquée (« deepfake ») 

 

 

  • Le site français De facto (https://defacto-observatoire.fr/ ) est le premier espace indépendant où chercheurs, journalistes et professionnels de l’éducation aux médias et à l’information unissent leurs efforts dans la lutte contre la désinformation. Son ambition est de promouvoir la qualité de l’information – essentielle pour nos démocraties -, la diversité du débat public et la régulation des plateformes numériques.

 

  • Le site de l’Europe (UE) pour comprendre la désinformation pilotée par la Russie
    EU vs Disinfo,   Site du Service européen (partie du service diplomatique de l’UE, dirigé par le haut représentant de l’UE) pour contrer la désinformation de la Russie. Ce site est le travail du  groupe de travail East Stratcom, une équipe constituée d’experts qui ont principalement suivi une formation en communication, journalisme, sciences sociales et étude de la Russie.

 

    • Pour simple information citons le dispositif européen RAS - Rapid Alert System. : Le système d’alerte rapide (RAS) est un élément important de l’approche globale de l’UE pour lutter contre la désinformation, et est un des quatre piliers du Plan d’action contre la dés-information approuvé par le Conseil Européen en décembre 2018. Il a été établi pour promouvoir le partage des connaissances entre les institutions de l’UE et les États membres en ce qui concerne les campagnes de désinformation et de coordonner les réponses. Le RAS de base sur des informations en open source et s’appuie également sur les connaissances du monde universitaire, des vérificateurs de faits (fact checker), des plateformes en ligne et des partenaires internationaux. 

 

👉  En Anglais ; 2 sites pour vérifier une image ou une vidéo 

 

  • Deepware   (en anglais) qui permet de reconnaître les vidéos « hyper-truquée » (deepfake),

 

  • TinEye - : Vous vous interroger que l’origine d’une image : Vous pouvez effectuer une recherche par image ou ce que TInEye appele une recherche inversée d’image. Vous pouvez le faire en téléchargeant une image ou en recherchant par URL. Vous pouvez aussi simplement glisser-déposer vos images pour commencer votre recherche. TinEye fait constamment le crawl du web et ajoute des images à son index. Aujourd’hui, l’indice TinEye compte plus de 72,1 milliards d’images.

 

 

 

 

 

IA «assistant » ? IA «compagnon» ? IA «spy», «gourou»… ?

14/10/2025

IA «assistant » ? IA «compagnon» ? IA «spy», «gourou»… ?

Les dirigeants (et actionnaires) des sociétés créatrices de système d'IA ont une vision des "IA Assistant" qui doivent se transformer en "IA Compagnon". Citons le PDG de Microsoft AI « Nous ne devrions plus considérer l’IA comme un grille-pain ou même un smartphone, mais plutôt comme un nouveau type de compagnon émotionnellement engagé ». Et Mark Zuckerberg, PDG de Meta affirme que les avatars numériques pourront répondre à ces carences relationnelles : « Le monde physique et le monde numérique devraient être fusionnés ». Le contrôle de la qualité de ses compagnons émotionnellement engagés n'est aujourd'hui pas assuré. 

D'aprés l'enquête de l’association Common Sense Media parue le 16 juillet, près des trois quarts des adolescents américains déclarent avoir utilisé un compagnon émotionnel basé sur l’IA – un chatbot simulant une relation amicale, amoureuse, voire sexuelle. Les cas suivants, rapportés par les médias de faits concernant les personnes accompagnées par l’IA pour se suicider ou pour faire une demande de mariage à une personne virtuelle, sont rapportés par les médias et soulèvent des questions éthiques et psychologiques importantes. En effet, l’IA permet de fabriquer des compagnons virtuels de plus en plus réalistes. Le New York Times, le 23 octobre 2024, a reproduit l'ultime dialogue ente un adolescent américain de 14 ans Sewel et son "IA compagnon" : « Viens me rejoindre dès que tu peux, mon amour », demanda le bot. « Et si je te disais que je peux venir tout de suite ? », répliqua Sewell. « Fais-le s’il te plaît, mon cher roi », répondit le bot. L’adolescent lui dit qu’il le ferait, puis il mit fin à ses jours.

Citons l’article de Sud Ouest « Intelligence artificielle : une ONG veut faire interdire les compagnons IA « sans garde-fous » aux mineurs » : L’ONG concerné Common Sense Media (CSM) est une organisation américaine à but non lucratif, localisée à San Francisco, spécialisée dans l'étude des médias et technologies familiales et des enfants.

« Les compagnons virtuels appuyés sur l’intelligence artificielle générative présentent des risques pour les jeunes utilisateurs, selon l’ONG américaine Common Sense, qui recommande de les interdire aux mineurs.

L’explosion de l’IA générative a vu plusieurs start-up lancer, ces dernières années, des interfaces axées sur l’échange et le contact, des compagnons IA, façonnables selon ses goûts et ses besoins. Common Sense en a testé plusieurs, à savoir Nomi, Character AI et Replika, pour évaluer leurs réponses.

Et si certains de leurs usages « sont prometteurs », « ils ne sont pas sûrs pour les enfants », affirme l’organisation, qui fait des recommandations sur la consommation de contenus et produits technologiques par les enfants.

Son étude … a été réalisée en collaboration avec des experts en santé mentale de l’université de Stanford (Californie). »

 

Le lien de causalité entre l'utilisation de l'IA et ces événements est complexe et souvent difficile à établir avec certitude, mais néanmoins, nous devons nous interroger sur l’encadrement nécessaire des IA. Et nous devons protéger nos enfants (et toute personne fragile psychologiquement) des systèmes d'IA qui peuvent :

  • fragiliser leur bien-être psychologique. Les enfants sont particulièrement vulnérables, car ils sont encore en phase de développement.
  • collecter des données personnelles à leur insu, ce qui peut être dangereux si ces données sont mal utilisées,
  • avoir un impact négatif sur leur développement social, en les isolant ou en les déconnectant de la réalité,
  • les exposer à des contenus néfastes générés par l'IA, tels que les deep fakes, qui peuvent être difficiles à identifier et à combattre,
  • réduire les capacités de pensée critique, car ils pourraient devenir trop dépendants de ces outils pour obtenir des informations ou résoudre des problèmes,
  • Les exposer à des préjugés ou à des discriminations via les algorithmes, qui peuvent renforcer les inégalités ou reproduire des biais existants…

L’utilisation d’IA nocives et non contrôlées peut avoir des conséquences à long terme sur nos vies. Il est donc essentiel, en complément d’une réglementation protectrice (à renforcer) imposée à toutes les IA grand public,  de nous former (plus particulièrement les enfants et les personnes fragiles psychologiquement) à ces risques, et à utiliser l'IA de manière responsable et sécurisée.

Nous vous conseillons de voir  le site web de l'administration française : nouveau tchat confidentiel dédié à la protection des jeunes 

Accélération des offres de chatbot et impact sur la santé mentale

L’article de Laure Belot dans le journal Le Monde du 13 janvier 2026 indique que, début 2026, de nombreuses annonces de chatbot agissant dans le domaine de la santé mentale ont été faites. 3  exemples : 

  • Mercredi 7 janvier, la création par Open AI de ChatGPT Health. Selon l’entreprise, les usagers, en connectant leurs dossiers de santé, pourront à partir de fin janvier avoir des réponses « plus personnalisées » du robot sans que ce soit « ni un diagnostic ni un traitement ».
  • Lundi 12 janvier, la société Anthropic a, elle, dévoilé son propre programme, Claude for Healthcare.
  • En France, un dispositif médical utilisant la voix et une IA générative pour suivre des patients souffrant de schizophrénie, de dépression ou de bipolarité est annoncé par la société française Callyope pour 2026.

 

Puis l'article souligne les alertes des scientifiques sur l'IA et les chatbots

« Interrogé en novembre 2025 dans une communication de Nature sur ses plus grandes inquiétudes concernant l’IA, Mustafa Suleyman, cofondateur de DeepMind (racheté par Google), désormais directeur du développement des produits d’IA grand public de Microsoft, pointe du doigt ce risque accru de délires lors d’interactions émotionnelles avec les chatbots…La communauté scientifique, côté médecine ou technologies, multiplie les alertes. « C’est un nouveau problème de santé publique », ont affirmé neuf neuroscientifiques et informaticiens, dont certains chez des Gafam, dans une communication du 28 juillet 2025. Les chatbots présentent des biais technologiques, ont-ils souligné, disent ce que l’on veut entendre (sycophancy ou complaisance) et s’adaptent à la demande. Les personnes les plus fragiles, insistent ces chercheurs, peuvent développer une forte dépendance et voir leurs repères s’altérer, d’autant plus si elles sont socialement isolées. Les signataires appellent à « une action coordonnée des professionnels de la santé, des concepteurs d’IA et des autorités de régulation »…. Présentée à Madrid, le 22 octobre 2025, lors de la conférence sur l’intelligence artificielle, l’éthique et la société (AAAI/ACM), une étude de l’université Brown (Rhode Island) a détaillé comment ces chatbots « violent systématiquement les normes éthiques établies par l’American Psychological Association », même lorsqu’ils sont incités à utiliser des techniques de psychothérapie fondées sur des preuves. Ils fournissent, par exemple, des réponses trompeuses qui renforcent les croyances négatives des utilisateurs sur eux-mêmes et à l’égard des autres.

Quant aux améliorations annoncées pour que les chatbots soient plus prudents dans leur propos, celles-ci ne sont pas suffisantes, selon une analyse du laboratoire de santé mentale de l’université Stanford (Californie) pour l’ONG Common Sense Media, publiée le 20 novembre 2025. ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google Alphabet) et Meta AI (Meta) « ne parviennent toujours pas à reconnaître et à répondre de manière appropriée aux troubles de santé mentale des jeunes », notent les chercheurs, citant notamment l’anxiété, la dépression, le TDAH (trouble du déficit de l’attention avec ou sans hyperactivité) ou les troubles alimentaires.

Du côté institutionnel, trois Etats américains (Illinois, Utah, Nevada) ont décidé, mi-2025, de restreindre l’usage des chatbots, interdisant notamment aux thérapeutes de conseiller à un patient de se confier à une IA générative. L’American Psychological Association a émis, le 13 novembre, un avertissement intitulé « L’intelligence artificielle et les applications de bien-être ne peuvent à elles seules résoudre la crise de la santé mentale ». … A ce jour, cependant, aucun organisme international ne surveille systématiquement les effets de l’IA sur la santé mentale, comme le fait l’OMS sur les risques sanitaires… »

 

Modification des pratiques des psychiatres avec IA

L’article détaille plusieurs témoignages de spychiatres. « Depuis la Harvard Medical School, le professeur John Torous dit ne pas être surpris de ces exemples… « Cette perturbation n’est pas encore une disruption totale, car les outils numériques utilisés par les personnes [applications, robots conversationnels] ne gèrent encore pas bien les soins psychiatriques médicaux. » Mais, lorsque ceux-ci deviendront meilleurs et plus sûrs, ajoute-t-il, « cela changera notre façon de pratiquer. Nous devrons alors réfléchir à la manière de les intégrer » ».

 

Actions des Gafam sur le secteur de la santé mentale

L’article de Laure Belot cite des annonces et déclarations des GAFAM fin 2025 -début 2026 :

    • Mercredi 7 janvier, la création par Open AI de ChatGPT Health. Selon l’entreprise, les usagers, en connectant leurs dossiers de santé, pourront à partir de fin janvier avoir des réponses « plus personnalisées » du robot sans que ce soit « ni un diagnostic ni un traitement ».
    • Lundi 12 janvier, la société Anthropic a, elle, dévoilé son propre programme, Claude for Healthcare….
    • Dans un article de JAMA Psychiatry du 19 novembre 2025, des chercheurs de Google DeepMind mettent en avant la « psychométrie générative » pour évaluer la santé mentale...
    • Microsoft, sous la plume de son directeur de la stratégie technologique, Thomas Klein, a publié, le 21 novembre, le livre L’IA au service de la santé, dont un chapitre est consacré à la santé mentale. « Tout comme l’imagerie médicale ou les antibiotiques, les outils informatiques ont révolutionné la pratique médicale, les LLM et l’IA pourraient bien constituer le prochain saut quantique en santé », explique le dirigeant.

« ces acteurs sont dans le business et les données, nous, on est dans le soin, constate Stéphane Mouchabac. L’innovation numérique en psychiatrie doit obéir exactement aux mêmes règles éthiques et réglementaires que la médecine en général. »

 

Données médicales et comportementales de masse désirées par le secteur de la hightech

« Depuis des décennies, la psychiatrie moderne est à la recherche de « biomarqueurs », des indicateurs objectifs tels qu’une prise de sang ou une image cérébrale qui aideraient un psychiatre à confirmer qu’une personne souffre de dépression, de schizophrénie ou de bipolarité…. Raphaël Gaillard ajoute que « le diagnostic psychiatrique, souvent perçu comme subjectif, repose sur l’analyse d’une multitude de petits indices faite par un médecin expérimenté ». L’IA, poursuit-il, « va peut-être permettre de reproduire ce processus de manière algorithmique et externe, en ramassant des données qui sont autant de signaux faibles qu’on n’arrive pas à agréger »….

« Où vont numériquement les informations concernant les personnes ? Où sont-elles stockées ? Comment leur sécurité est-elle garantie ? », s’interroge-t-il. Le Français Guillaume Dumas, professeur de psychiatrie computationnelle à l’université de Montréal (Canada), ajoute : « En vertu du Patriot Act, les données hébergées aux Etats-Unis ne sont, selon moi, pas en sécurité car elles peuvent être saisies par un gouvernement pour des raisons politiques. »…  Depuis Harvard, John Torous apporte d’autres réserves. «…sans investissement direct et sans construction de modèles spécifiques à la psychiatrie, les résultats ne seront pas là…»

Risques et validation des nouveaux robots conversationnels spécialisés en santé mentale ?

L’article site 3 exemples de nouveaux robots conversationnels spécialisés en santé mentale .

  • Le 25 novembre 2025, la société allemande HelloBetter a officiellement lancé Ello, chatbot spécialisé en santé mentale. est aussi à l’origine d’une application proposant des programmes de thérapie cognitivo-comportementale remboursés par la sécurité sociale allemande et utilisée « par 20 % des psychiatres », notamment pour des cas de burn-out, …des psychologues entrent en relation avec l’utilisateur, par chat ou par téléphone, en cas de signal de détresse détecté. »..
  • La société américaine Slingshot AI a levé 93 millions de dollars (80 millions d’euros) à l’été 2025 pour lancer Ash, son chatbot spécialisé en santé mentale… Un journaliste britannique de The Verge a révélé le 10 décembre qu’Ash n’arrivait pas, en cas d’urgence, à lui donner le bon numéro de la ligne d’assistance au suicide : il donnait le numéro américain et non le numéro anglais, lieu de résidence de l’utilisateur…
  • Un seul projet de chatbot thérapeutique, Therabot, non commercialisé et développé par des chercheurs du Dartmouth College (New Hampshire), a pour l’instant réalisé des essais contrôlés randomisés Ces essais, dit-il, « nous montrent que des gens présentant des problèmes de santé mentale peuvent utiliser un chatbot, ce que nous savions déjà. Nous voulons une étude comparant un chatbot thérapeutique à un chatbot de simple conversation afin d’isoler l’effet réel de la thérapie ». Pour cet expert de la psychiatrie numérique, « il est inquiétant que personne n’ait encore produit une étude de haute qualité avec un véritable groupe de contrôle actif ».

 

La nécessité de la validation rigoureuse de haute qualité de ces outils spécialisés en santé mentale à base d’IA et de Chatbot est souligné par l’article.

 

 

La motivation principale de ces sociétés proposant des IA nocives et non contrôlées est "business", accroître le trafic, fidéliser ("rendre accro") les utilisateurs.

 

📢  Exigeons de nos dirigeants un contrôle de ces IA "amie, compagnon émotionel".

 

 

Quelle gouvernance pour une IA responsable ?

27/09/2025

Quelle gouvernance pour une IA responsable ?

Algorithme et données de l'IA 

 

La responsabilité du propriétaire-concepteur-programmeur et celle du choix des données
Larousse donne la définition du mot algorithme : « Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. ». Les algorithmes sont constitués de 2 éléments : 
•    Un choix des données extraites de la vie et des réalités humaines, organisées et sélectionnées par le programmeur-concepteur de l’outil IA. La représentation de la réalité sous forme de données numériques peut nous conduire à tort à faire passer les données pour des ‘’faits’’ en faisant oublier que les ‘’faits’’ sont toujours produits, et que les données ne traduisent jamais que les ‘’effets’’ d’un production souvent faite par des hommes avec des rapports de force et des phénomènes de domination. « Les problèmes de qualité des données sont inhérents au fonctionnement de l’IA et n’ont pas de correctifs. » (d’après  https://danslesalgorithmes.net/ de janvier 2025) 
•    un choix de séquence d’opération (du "modèle algorithmique") :  Les interventions et les réglages de modération des modèles devraient être accessibles, car ils peuvent « représenter des jugements sociaux et moraux plutôt que de simples jugements techniques ». Si un chatbot ne dit rien de ce qu’il s’est passé sur la place Tiananmen en 1989, nous devons pouvoir comprendre pourquoi, défend Zittrain. « Ceux qui construisent des modèles ne peuvent pas être les arbitres silencieux de la vérité des modèles. » (d’après  https://danslesalgorithmes.net/ de janvier 2025).

👉Ces choix (données et séquences d’opération) peuvent refléter des valeurs morales des professionnels de la programmation comme les principaux acteurs de leur construction. --> Toutes ces étapes constituent en réalité des choix éthiques.

 

 

Exemples et mécanismes explicitant la notion de « responsabilité » de l’IA
Donnons quelques exemples d’IA posant problème.  L’IA est utilisée dans la Technopolice, avec la mise en place de caméras qui signalent aux policiers municipaux en temps réel les rassemblements « suspects » ou caméras qui permettent la « filature automatisée d’individus » …Actuellement, les pouvoirs publics donnent la main au secteur privé pour promouvoir, tester des dispositifs dérogatoires à la loi actuelle en vertu d’un double principe : La nécessité d’une urgence ponctuelle et le souhait de ne pas entraver les industriels de la surveillance par des « carcans procéduraux ». Mais il faudra s’assurer que cette surveillance utile pour les délinquants ne vienne pas empêcher le droit de se réunir pour un citoyen. Un cadre réglementaire de ces usages doit être défini par la loi.
La reconnaissance faciale a aujourd’hui un taux d’erreur minuscule (0,08% selon le Nist). Mais les erreurs sont problématiques, notamment quand elles conduisent à des arrestations sans cause justifiable.
Mais, il existe des exemples ou l’IA a conduit à des résultats erronés. Un exemple très connu, comme souligné dans plusieurs articles de 2014, l’outil de prédiction de la grippe de Google le Google Flu Trend a surestimé l’épidémie de plus de 50% par rapport à la réalité. « Comme le note Time magazine qui relaie l'information, il s’agit ici d’un cas typique de “big data hubris (exemple d'arrogance du big data, NDLR). Ce n’est pas parce que des entreprises comme Google peuvent amasser un nombre incroyable d’informations autour du monde qu’elles sont capables de les analyser correctement afin de produire une image nette de ce qui se passe (dans le monde).”  Nous devons donc rester vigilants et critiques le cas échéant sur l’IA. 


La responsabilité du propriétaire-concepteur-programmeur et celle du choix des données
Larousse donne la définition du mot algorithme : « Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. ». Les algorithmes sont constitués de 2 éléments : 
•    Un choix des données extraites de la vie et des réalités humaines, organisées et sélectionnées par le programmeur-concepteur de l’outil IA. La représentation de la réalité sous forme de données numériques peut nous conduire à tort à faire passer les données pour des ‘’faits’’ en faisant oublier que les ‘’faits’’ sont toujours produits, et que les données ne traduisent jamais que les ‘’effets’’ d’un production souvent faite par des hommes avec des rapports de force et des phénomènes de domination. « Les problèmes de qualité des données sont inhérents au fonctionnement de l’IA et n’ont pas de correctifs. » (d’après  https://danslesalgorithmes.net/ de janvier 2025) 
•    un choix de séquence d’opération (du "modèle algorithmique") :  Les interventions et les réglages de modération des modèles devraient être accessibles, car ils peuvent « représenter des jugements sociaux et moraux plutôt que de simples jugements techniques ». Si un chatbot ne dit rien de ce qu’il s’est passé sur la place Tiananmen en 1989, nous devons pouvoir comprendre pourquoi, défend Zittrain. « Ceux qui construisent des modèles ne peuvent pas être les arbitres silencieux de la vérité des modèles. » (d’après  https://danslesalgorithmes.net/ de janvier 2025).

👉Ces choix (données et séquences d’opération) peuvent refléter des valeurs morales des professionnels de la programmation comme les principaux acteurs de leur construction. --> Toutes ces étapes constituent en réalité des choix éthiques.

 

 

Certains systèmes d'IA : engouement, battage médiatique ou buzz médiatique (« hype ») organisé pour être une escroquerie ?

Pour aller plus loin sur ce thème lire l’article de Hubert Guillaud du 6 sep 25 sur l’escroquerie de l’IA (« The IA con » HarperCollins, 2025 non traduit).

Certains extrémistes ont des visions apocalyptiques :

  • les pessimistes collapsologues pensent que le développement de l’IA est dangereux
  • les accélérationnistes pensent que le développement de l’IA permettra de sauver l’humanité.

Ces visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety.

Rappelons qu’aujourd’hui, la plupart des gens sur la planète n’ont pas besoin d’IA, et le développement d’outils d’automatisation de masse n’est pas socialement désirable. Soulignons le fait que les effets probables du développement de certains systèmes d’IA toxiques sont de

  • centraliser le pouvoir, car les infrastructures lourdes demandent de centraliser les investissements, les équipements, et donc limiter le nombre d’actionnaires capables de financer ces systèmes,
  • façonner les opinions et le comportement des utilisateurs, afin de favoriser la génération de profit aux actionnaires accompagnée d’une spéculation financière sans limite, entrainant une dégradation de la confiance dans les médias à laquelle l’IA participe activement.

plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous».

Ces extrêmistes avec vision apocalyptique devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents.

La mesure de l'engouement pour ces systèmes IA : Le journal "Les Echos" du 25 septembre affiche un article au titre explicite "Les préados deviennent gagas d'IA" qui cite ce chiffre : "22% des préados utilisent un chatbot plusieurs fois par jour" . Autre exemple : L’agent conversationnel ChatGPT d'OpenAI, avec ses 700 millions d’usagers, reçoit chaque jour 2,6 milliards de requêtes.   

Pour résister à l’engouement de ces systèmes d’IA toxiques, nous devons avoir une volonté politique pour poser des questions sur chaque système qui se déploie.

  • D’où viennent les données ?
  • Qu’est-ce qui est vraiment automatisé ?
  • Quelle est la qualité de l’évaluation de l’utilité des systèmes. 

Exemple : ShotSpotter, le système vendu aux municipalités américaines pour détecter automatiquement le son des coups de feux, était annoncé avec un taux de performance de 97%. En réalité, les audits réalisés à Chicago et New York ont montré que 87 à 91% des alertes du systèmes étaient de fausses alertes !

  • A qui bénéficie le système IA qui est envisagé de déployer, qui en souffre.
  • Quels recours sont disponibles et quelle procédure de plainte est fonctionnelle pour y répondre ?»

👉 En exigeant des réponses à ces questions, nos politiques doivent mettre en place des politiques pour développer les systèmes qui soient socialement bénéfiques à tous, et interdire (ou limiter) les systèmes IA toxiques pour nos sociétés et démocraties.


Une IA réglementée? Par qui ? 


Un rappel de l’action de l’Europe dans le numérique et des problématiques associées
•    1995 : Adoption de la directive sur les données personnelles
•    2000 : Adoption de la directive sur le commerce électronique 
            qui règlement les transactions en ligne et l’e-commerce dans l’Europe
•    2004-13 : Régulation du numérique par la concurrence. 
            2004 : 1ère amende de Microsoft (497 millions €) pour 
            « abus de position dominante » 
            2009 : Amende d’INTEL de 1,06 milliards € pour 
            « abus de position dominante »  sur le marché des microprocesseurs
            2013 : 2ème amende de Microsoft (561millions €) pour 
             avoir imposé son navigateur internet Explorer
•    2016 : Adoption du règlement RGPD …
•    2014-2024 : Législation comme les réglements « DMA » et  DSA »
•    Le 6 septembre 2023 :  Identification par l’Europe de « plateformes contrôleurs  d’accès »
•    2024 : « AI ACT (Artificial Intelligence Act)


Récapitulatif de principaux textes européens réglementant le numérique

RGPD 2016    Règlement général sur le protection des données personnelles
DSA    2022    Digital Service Act qui encadre les contenus
DMA    2024    Digital Market Act qui encadre la concurrence
RIA      2024    communément appelé AI Act (Artificial Intelligence Act) qui encadre les applications de l’IA. 

👉Pour l'information sur cet AI Act, vous trouverez un résumé sur le site de l'Europe : 
https://artificialintelligenceact.eu/fr/high-level-summary/
ou ce podcast 

 

 

👉Soulignons les délais longs de mise en application des textes de l’Union Européenne ! Comme citoyen, nous devons exiger de nos politiques d’avancer rapidement sur la nécessaire réglementation de l’IA et son application strique. Le Règlement européen sur l’Intelligence Artificielle (RIA) a été publié au Journal Officiel le 12 juillet 2024. Il entre en vigueur vingt jours après, soit le 1er août 2024. L’entrée en application se fera de façon échelonnée :

  • 2 février 2025 : Interdictions relatives aux systèmes d’IA présentant des risques inacceptables ;
  • 2 août 2025 : Applications des règles pour les modèles d’IA à usage général ; nomination des Autorités compétentes au niveau des États membres de l’UE ;
  • 2 août 2026 : Toutes les dispositions du Réglement sur l'IA deviennent applicables, en particulier les règles relatives aux systèmes d’IA à hauts risques, comme ceux traitant de la biométrie. 

👉Soulignons aussi peut-être un manque de volonté politique. Dans le journal Le Monde du 30 août 2025, il est souligné que l’Europe, aujourd’hui, n’a pas déclenché la procédure européenne « anti coercition ». « Au niveau purement juridique, tous les éléments nécessaires au déclenchement de cet instrument sont réunis, commente Alan Hervé, professeur de droit public à Sciences Po Rennes. Encore faut-il qu’il y ait une volonté politique et l’aval des États membres. Certains, comme l’Allemagne, l’Italie et d’autres n’y sont pas favorables. ». Pour Alexandre De Streel, professeur de droit européen à l’université de Namur (Belgique), « le risque est majeur de voir la Commission européenne ou des Etats membres privilégier la protection de certains secteurs économiques, comme l’automobile, en choisissant d’appliquer moins strictement le DMA et le DSA. On peut déjà constater que la Commission ralentit la cadence, ouvre moins d’enquêtes depuis le retour de Donald Trump au pouvoir ». L’ enquête lancée en 2023 contre X, l’entreprise d’Elon Musk, pour violation supposée du DSA s’éternise.

 

 

Gouvernance de l’IA partagée par de nombreux autres acteurs


De nombreux acteurs sont impliqués :  l’industrie, les  États et organismes internationaux, associations, universités…

Industries : Un petit nombre de sociétés, liées en trés grande partie aux plateformes évoquées ci-dessus, exercent un contrôle sur les ressources clefs comme les données, la puissance de calcul, l’expertise.  Ces sociétés pèsent lourd dans la gouvernance de l’IA par le sponsoring de la recherche dans les outils hyper-techniques, et la création de consensus autour de concepts alignés avec leurs intérêts “business”.
Etats et organismes internationaux : Citons l’OECD, l’UNESCO, le G20, l’ONU.. 
•    OECD Recommendation on AI, https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449 
•    UNESCO's Recommendation onthe Ethics of AI, 2021 : « Recommandation sur l’éthique de l’intelligence artificielle » qui est sensée aider chaque gouvernement à mettre en œuvre une politique conforme à cet objectif
https://unesdoc.unesco.org/ark:/48223/pf0000381137_fre  

•    the G20 AI Principles https://wp.oecd.ai/app/uploads/2021/06/G20-AI-Principles.pdf 
•    Citons aussi l’action de l’ONU pour favoriser la réflexivité et notre capacité à prendre des décisions conformes aux objectifs que nous nous fixons, par exemple le programme #marquonsunepause de l’ONU. Dans le cadre de l’initiative « Vérifié », l’ONU a lancé la campagne #MarquonsUnePause qui encourage les citoyens à réfléchir avant de partager une information sur les réseaux sociaux. « Vérifié »( Verified), une initiative des Nations Unies lancée en mai 2020 pour communiquer des informations sanitaires accessibles et scientifiquement fondées dans des formats convaincants et partager des histoires de solidarité mondiale autour de la COVID-19.

Citons aussi les universités, les organismes de normes comme l’AFNOR ou « International Organization for Standardization (ISO) »…
Le paysage de la gouvernance de l’IA est complexe, et l’inclusion de la société civile varie considérablement d’un pays à l’autre. Les obstacles à la participation de la société civile comprennent un accès limité à certains lieux de décision, à des contraintes d’information et de compréhension de ce domaine complexe accompagnées de contraintes financières (le numérique représente un budget important pour beaucoup de ménages), et la nécessité de bâtir des organismes qui doivent être des courroies de transmission (comme des associations), dotés de sites internet facilement accessibles…) pour faire entendre leur voix auprés des décideurs. Malgré ces défis, la société civile demeure un intermédiaire clé, pour défendre l’intérêt public dans la gouvernance de l’IA. 

 

Les principes d’une politique publique française ou/et européenne ?


Ces principes a été défendus par le CESE (centre économique social et environnemental)  dans un rapport "Pour une intelligence artificielle au service de l'intérêt général" . Quatre types d'actions semblent nécessaires :

 

  • des actions de formation 
    • pour expliquer simplement et démystifier l’IA, et rétablir la confiance entre cette technologie et ses utilisateurs. A la base de cette formation, une obligation de transparence aux fournisseurs (programmeur-concepteur d’IA) en est une des clés !
    • pour prévenir des risques liés à l’IA : Identifier les risques inhérents à l'IA et mettre en place des stratégies d’adoption de comportements et usages adaptés pour garantir une résilience face aux menaces émergentes. En particulier, évoquons des formations sur le management de l’attention, les techniques d’accroissement de notre réflexivité, le paramétrage des plateformes, la cyber malveillance...  
    • pour développer des compétences en IA dans la recherche et dans l'industrie
    • pour développer les compétences émotionnelles des enfants, et des citoyens de manière plus large, afin qu’ils puissent naviguer et saisir les opportunités des altérités et des attachements numériques auxquels ils vont être confrontés, et qu’ils vont développer, notamment au regard du développement des systèmes d’IA générative" (Nicolas Chagny, Jean François Lucas, du think tank " Renaissance Numérique") .

 

  • des actions pour faire évoluer le système juridique et réglementaire, et ses outils de contrôle (*): 
    • en particulier, les actions devant les tribunaux pour créer une jurisprudence précisant l'applicabilité de nos lois actuelles(*)
    • pour un système juridique accompagné d’organismes chargés de contrôles, pour en particulier donner des outils pour la lutte contre la désinformation, la protection des droits de propriété intellectuelle, la proctection de l'environnement, l'emploi et le monde du travail 
    • pour rendre la réglementation proactive et pragmatique, dès que nécessaire, permettant de coconstruire un cadre à la fois sécurisé et favorable à l'innovation, à la recherche et au développement. 

 

  • des actions dans le domaine économique, géopolitique et de la recherche  pour orienter les investissements publics et privés sur la création et le soutien de systèmes français (comme l'IA Le Chat Mistral) ou européens, ceci pour des raisons géopolitiques, mais aussi pour disposer de type d'IA adaptée à nos sociétés démocratiques. Nous avons besoin de retrouver une souveraineté sur nos outils numériques pour mieux les concevoir et les contrôler, et sutout sur nos données qui sont le carburants des IA (voir l'article  du 29/10/25 du Figaro "Souveraineté numérique, la France doit faire preuve de la même ambition que pour le nucléaire dans les années 60". 

 

  • des actions dans le domaine social et de l’emploi pour accompagner le changement auprès des personnes actives perturbées par l'IA dans leurs entreprises ou administration, et  pour les 8 millions de personnes éloignées du numérique dans un contexte de numérisation du service publique.

 

Ces actions sont à mener en France, et en coordination avec l'Europe et les instances internationales. 

En mars 2024, la commission de l’intelligence artificielle remettait au Président de la République un rapport intitulé : « IA, notre ambition pour la France »

 

(*) Certains tirent la sonnette d’alarme sur la nécessité, non pas de produire de nouveaux textes « directives » ou « réglementation », mais de « se concentrer sur la mise en œuvre de textes de procédure et d'interprétation, afin de garantir une articulation efficace entre les grands textes adoptés ces dernières années, plutôt que sur l'ouverture de nouveaux chantiers législatifs. Cette recherche de cohérence devient une urgence : les conflits de compétences et les défis d’articulation risquent non seulement d'engendrer de l'inefficacité, mais aussi et surtout de l'injustice et de l’insécurité. » (communiqué de presse de l’association Renaissance Numérique du 12 novembre 2024 : Renaissance Numérique est un think tank indépendant dédié à la transformation numérique de la société. Il œuvre à éclairer les évolutions que cette transformation entraîne et à donner à chacun les clés de sa maîtrise). Cette association a sorti un rapport (105 pages) « Déployer une littératie en IA pour une société inclusive et émancipatrice » en octobre 2025 

 

-------- 

 

Pour "aller plus loin" , nous vous proposons de lire l'avis du CESE (Conseil Économique Social et Environnemental) de janvier 2025 :  "Pour une IA au service de l'intérêt général"  et de lire les nombreux articles parus depuis sur ce thème. 

 

Information numérique : Une nouvelle guerre ?

27/11/2024

Information numérique : Une nouvelle guerre ?

Mutation de ce monde numérique

De nombreux livres sont sortis récemment pour mettre en exergue la situation actuelle du monde numérique. Comme souligné par plusieurs auteurs, l’accélération des découvertes et des progrès dans les nanotechnologies, biotechnologies, technologies de l’information et sciences cognitives (NBIC), nous interpellent tous. La partie du système global concernant l’information et les sciences cognitives, attachée aux mots : Internet , Intelligence artificielle , réseaux sociaux, plateformes numériques (Instagram, X (E-twitter), Tiktok…et les entreprises regroupées sous l'acronyme GAFAM (Alphabet (ex-Google), Apple, Meta (Ex-Facebook), Amazon et Microsoft), et sous l'acronyme BATX (Baidu, Alibaba, Tencent (créateur de WeChat) et Xiaomi) ….est en pleine mutation impactant en même temps nos comportements et ceux des États. L’utopie du web ouvert, libre et gratuit que nous avions au début des années 2000 a été balayée. Certains voyaient ce monde « numérique » comme « un orchestre sans chef d’orchestre », un grand magma de positions indéfinies, indifférenciées, et donc sans danger réel. La vision des médias électroniques diffusés par satellite et par le web nous a laissé croire que nous pouvions contourner les barrières physique, législative et politique qui avaient pour vocation de nous protéger des ingérences informationnelle étrangère et extrémiste.

Aujourd’hui, un nouvel environnement numérique informationnel et transnational est mis en place. De très nombreux auteurs ou politiciens utilisent les mots « guerre » ou « combats » en parlant de ce monde numérique. D’autres utilisent les expressions du type « Il faut le contenir (dans le sens d’endiguer) ». Pour comprendre ces cris d’alerte, nous devons comprendre globalement l‘organisation générale de ce monde numérique, les infrastructures, les acteurs … et être attentifs aux préconisations d’usage évoquées par les chercheurs, pour les adopter ou non, et faire sienne une position réfléchie.

Infrastructures et acteurs du numérique

les États et les liens avec les acteurs économiques « privés »

Les infrastructures de ce monde technologique sont majoritairement privées, mais installées en grande partie dans le domaine public (ondes, câbles, satellites…). Les grandes entreprises technologiques de ce secteur ne sont peut-être pas le produit de l’État stricto sensu, mais leur développement s’est fait avec le concours décisif des États. Ces entreprises comme les GAFAM n’ont peut-être pas reçu de subventions à leurs débuts, mais, … elles ont surfé sur la vague des investissements massifs de l’État dans ces technologies, comme cités dans le document de Charles Thibout :  « Les GAFAM et l’État : réflexion sur la place des grandes entreprises technologiques dans le champ du pouvoir. La revue internationale et stratégique, 2022».

« Internet, issu d’Arpanet, un programme financé à partir de la fin des années 1960 par l’Advanced Research Projects Agency, ancêtre de la DARPA ; le GPS, à l’origine un programme de l’armée dénommé Navstar, remontant aux années 1970 ; l’écran tactile, créé par une entreprise (FingerWorks) fondée par un professeur de l’Université (publique) du Delaware et par l’un de ses doctorants, dont la thèse était financée par la National Science Foundation (NSF) et la Central Intelligence Agency (CIA) – tout comme celle de Sergey Brin, cofondateur de Google ; et, enfin, toute une gamme de technologies de communication, à l’instar de l’assistant vocal Siri, produit dérivé d’un projet d’intelligence artificielle de la DARPA. »

Par ailleurs, les États ont la nécessité d’utiliser ces canaux de communication et de récupération de données pour des traitement de masse (« Big Data ») dans le cadre d’une guerre informationnelle que nous explicitons ci-après. Ils sont donc des utilisateurs (« clients ») de ces infrastructures auxquelles ils participent. Un politicien (président, ministre, député, maire…) souhaite avoir un compte Facebook, un compte X (ex_twitter), un site internet type blog ou vitrine…pour communiquer. Aujourd’hui donc, il apparaît nécessaire de prendre conscience des rapports qu’entretiennent ces entreprises avec leur État respectif, plus généralement avec la politique et la diffusion d’idéologies sur le web. Les relations internationales dans ce contexte d’infrastructures transnationales, et la perte de contrôle des États dans ce monde numérique posent un problème de souveraineté nationale ou européenne.

L’objectif de ces systèmes privés est double : d’une part l’obtention de revenus (profit), et d’autre part, dans beaucoup de cas, la captation cognitive des utilisateurs du net, ceci par des techniques de communication hyper-ciblée et des messages sélectifs, voir des « fake news » afin de les faire adhérer ou agir dans le sens voulu par ces donneurs d’ordre (clients de ces infrastructures).

Notre participation comme individu à ce monde numérique »

Chaque individu participe, parfois sans le savoir, à l’élaboration de ce monde numérique. Nos « données personnelles » et nos centres d’intérêt, et nos réactions (nos « like » et autres clics) sont captés lors de notre vie de tous les jours au profit des compagnies « BigData ». Citons en particulier le rôle de nos interactions avec des médias sociaux (applications et site web) qui permettent la création et la publication hyper-ciblée de contenus hyper-personnalisés, et le développement de réseaux connectant les utilisateurs entre eux. Les données collectées par les organisations commerciales, gouvernementales et industrielles, et leurs services « Communication », alimentent aussi ces systèmes complexes qui permettent, en particulier, de créer un « profil internet » pour chacun d’entre-nous. En s’appuyant sur notre « profil », ces systèmes, lors de nos interactions avec le web, peuvent attaquer les failles de notre raisonnement et de notre psychologie. Les messages très ciblés grâce à l’exploitation de ces systèmes utilisant les outils de « big data » et d’algorithmes alimentés par nos données peuvent être intrusifs, et parfois même trompeurs pour le consommateur et citoyen, et promouvoir des produits, des services, et une perception du monde qui nous éloignent de nos valeurs. Le temps que nous passons à être agressés par ce monde numérique est du temps en moins pour bien vivre.

Confinés dans nos bulles numériques, et submergés par un flux continu d’information, nous risquons de perdre nos capacités de raisonnement et de cognition. Nous devons donc, à notre niveau, nous éduquer pour utiliser ses technologies et nous garder en bonne santé mentale et cognitive. En 2023, la Chine a interdit l’accès aux mineurs à Internet de 22 heures à 6 heures du matin. En occident, de nouvelles règles apparaissent, comme par exemple la limitation des portables dans les écoles… « Les 'pontes' de la Silicon Valley protègent leurs enfants de leurs propres produits… Chez Bill Gates, pas de smartphones avant 14 ans… Pas d'iPad pour les enfants de Steve Jobs… ». (France Info Publié le 14/12/2017 ). Mais cela ne concerne pas que les mineurs. Comme individu adulte, nous devons apprendre à naviguer dans ce monde réel complexe, dangereux et perturbant.

Qui contrôle ce monde numérique ?

Les clefs de répartition de la gouvernance de ce monde numérique sont réparties entre les géants technologiques et les États . Cette répartition entre « public » (États, Europe, ONU…) et « privé » (les multinationales du secteur « numérique »), est difficile à appréhender, et on peut s’interroger sur la « légitimité » (au sens de ce qui est juste, équitable…) de ce pouvoir éclaté. Il me semble que nous devons demander à nos politiques, en particulier lors des élections européennes, de nous éclairer sur leur programme pour améliorer cette gouvernance, et en particulier pour renforcer notre souveraineté. Ce point complexe de souveraineté numérique est évoqué ci-après.

Caractéristiques de ce monde

L’action sur les processus psychologiques liés à la connaissance.

Pour agir raisonnablement et en citoyen, il nous faut une information fiable, complète et vérifiée, suivie d’un temps de réflexion. Quand vous lisez un journal, vous savez qui le possède et qui est le rédacteur en chef. Dans le monde Internet, nous devons sans cesse vérifier qui nous envoie le message que nous sommes en train de lire, et nous faire une opinion sur la qualité de l’information. En effet, les messages que nous recevons (informations présentées sur les réseaux sociaux, celles affichées lors de nos requêtes sur internet, ou dans des mails et messages diffusés nominativement) sont formatés, édulcorés, ciblés suivant notre « profil » (social, niveau d’étude, environnement, psychologique, centre d’intérêt …). Par ces messages et informations sélectives, nos opinions sont construites en partie, et nos émotions déclenchées.

La guerre informationnelle

Dans le monde « militaire », dans la fin du XXème siècle et au début du XXI siècle, en particulier lors de la guerre du Golf, est apparu un nouveau type de conflit qui comprend les champs de bataille sur les infrastructures électroniques de communication (champs magnétiques, réseaux (filaire ou onde), plateformes et serveur, satellite…), mais aussi sur les informations pour mener des opérations psychologiques de découragement, ou de perturbation de l’adversaire et de son opinion publique. Dés les années 1990, les militaires ont compris les enjeux stratégiques de l’information. « Un des attributs de la guerre future, écrit en 1998 Vladimir Slipchenki, théoricien de la transformation des forces armées russes, sera la confrontation de l’information, car l’information est en train de devenir une arme du même type que les missiles, les bombes, les torpilles… ».

Dans le monde « politique », fin 1990 début 2000, Internet est apparu comme un territoire vierge dans lequel l’indignation, la peur, l’insulte, la polémique, les fake news génèrent plus d’attention et d’engagement sur le net ou lors de la reprise de ses informations à la télévision ou dans la presse que les débats soporifiques de la politique traditionnelle. Partis de ce constat aujourd’hui bien partagé, des professionnels de la communication (professionnels nommés « les ingénieurs du chaos » dans le livre de Giuliano da Empoli) ont élaboré des outils numériques pour remporter des élections comme celle de Trump aux USA, en Italie avec le mouvement M5, en Angleterre avec le Brexit, et dans de nombreux autres pays…. Des trolls (personne à l’origine de message posté sur Internet afin de susciter une provocation, une polémique ou simplement de perturber une discussion) ont été recrutés par des partis politiques ou des États pour inonder le net. Les électeurs potentiels que nous sommes, via les médias et aujourd’hui principalement le net, sont la cible d’opérations visant à influencer notre prise de décision.

De même, dans les relations internationales, nous assistons à une guerre informationnelle. Comme expliqué dans le livre paru en 2023 « la guerre de l’information » de David Colon :  « En l’espace de quelques années à peine, la puissance des États en est venue à dépendre comme jamais auparavant de leur capacité à recourir à l’information comme une arme, à des fins militaires, politiques ou diplomatiques. Sans que les opinions publiques en prennent conscience, les démocraties et les régimes autoritaires se sont engagés dans une guerre de l’information à l’échelle planétaire… ». « L’une des causes majeures de l’affaiblissement de nos démocraties tient au profond changement de nos façons de communiquer et de nous informer » (Barack Obama à Standford en avril 2022 cité par Le Monde avec AFP le 22 avril 2022).

La cybermalveillance : mettant en péril nos infrastructures et l’accès à internet

La cybercriminalité est une menace croissante sur Internet, et nous risquons d'y être exposés en n’adoptant pas des comportements appropriés dans nos usages d’internet (voir https://www.cybermalveillance.gouv.fr/). Nos gouvernants doivent mettre en place les dispositifs de sécurité pour lutter contre elle, informer et former la population à la gestion de ces risques de cybermalveillance.

Les armes de la guerre informationnelle

Il faut rappeler le poids des entreprises américaines BigTech et leurs liens avec le Pentagone pour comprendre la capacité de leurs dirigeants à ouvrir ou fermer le « robinet » de flux d’informations circulant et stockées sur leur réseaux (comme par exemple fermer un compte X (Ex Twitter). D’autres entreprises moins connues du grand public ont été impliquées dans la mise en place d’armes de guerre informationnelle.  Citons par exemple les fermes de « troll » ou les « bot » pour lancer des millions de messages, ou l’installation d’implants dans les réseaux informatiques du monde entier, ou dans les téléphones portables. En plus des États Unis, de nombreux États comme la Russie, l’Iran, la Corée du Nord, la Chine, Israël…, sont aujourd’hui reconnus comme d’une efficacité redoutable dans la maîtrise de l’information. Le livre « La guerre de l’ information - Les États à la conquête de nos esprits » de David Colon développe une description approfondie de la situation. Notons que contrairement à l’arme nucléaire, les attaques cyber n’ont pas de caractère dissuasif et sont difficilement attribuables. Mais elles font bien partie de cette guerre informationnelle qui complète les guerres médiatique et juridique auxquelles se livrent les nations.

Contrôles des États européens et français sur ce monde numérique

Le sénateur Mickaël Vallet souligne, dans Marianne le 26/02/2024 que « la lutte structurelle contre les débordements des Gafam et des nouveaux acteurs … doit dans toute la mesure du possible s'organiser au niveau européen… Cette domestication de l’usage est une nécessité et il faut accélérer le combat qui est mondial. Il en va de notre santé démocratique, de notre santé tout court et de nos libertés publiques. ». Pour contrôler les activités de ce secteur, l’Europe a dû et doit encore émettre des règles pour la protection des données, pour la vérification réelle de l’âge de l’abonné aux plateformes,et ce par la mise en place de moyens adaptés de lutte contre les contenus illicites, par la désignation juridique de plateforme comme éditeur de contenus et non en simple hébergeur … Les organismes français de contrôle (Cnil, Arcom, Anssi …) et de renseignement ont un rôle important et doivent être renforcés dans cette guerre informationnelle. L'Europe développe depuis plusieurs années des règlements et directives (RGPD, DMA, DSA, IA Act) sur le numérique.

Les politiques doivent veiller à notre souveraineté numérique. La France a confié, il y a plusieurs années, l’hébergement exclusif de ses précieuses données de santé au géant américain Microsoft. Celles-ci sont une richesse convoitée en raison de leur quantité et de leur cohérence. La solution Microsoft Azure a été choisie par le gouvernement pour héberger l’application HDH (Health Data Hub). Les autorités américaines peuvent exiger des entreprises immatriculées dans le pays qu’elles leur remettent des datas qu’elles hébergent. Deux textes, le "Cloud Act", adopté en 2018, et la loi dite "Fisa" (Foreign Intelligence Surveillance Act), rendent possibles ces brèches. Beaucoup s’interrogent : Pourquoi le gouvernement n’a pas retenu une proposition française ou européenne ! ET pourquoi des lois symétriques ne sont pas mises en place en France et en Europe ?

Conclusion

L’information est un terrain de guerre. « Nos cerveaux seront les champs de bataille du XXI siècle » (citation de James Giodano, neuroscientifique, Georgetown University).  Les États, par leurs entreprises « technopolitiques » cherchent à capter notre attention, à susciter notre engagement ou désengagement, à influencer nos opinions en diffusant des informations trompeuses envahissantes ciblées et accrocheuses en attaquant les failles de notre raisonnement et de notre psychologie. Nous devons exiger de nos dirigeants français et européens de mettre en place des dispositifs de défense informationnelle pour nous mettre à l’abri des attaques de pays étrangers, de préserver notre capacité à choisir nos dépendances et défendre nos intérêts vitaux dans ce domaine numérique, et en parallèle de diffuser des messages sur la scène internationale comme complément de nos actions diplomatiques, comme par exemple par France Média Monde (FMM).

A notre niveau de citoyen, nous devons comprendre que ne pas prendre le temps, d’une part, de comprendre le monde numérique qui nous entoure et de nous interroger sur nos sources d’information, et d’autre part, de protéger nos données personnelles et plus généralement adapter nos usages du numérique, c’est accepter d’être agressés par cette guerre informationnelle en fragilisant nos capacités de réflexion, et en nous positionnant en cible potentielle pour la cybercriminalité.  « Prendre le temps », c’est accepter d’aller moins vite en surfant sur internet. Nous n’avons pas à vouloir être des super-experts ou des fact-checkers, ou rechercher contre vent et marée « le vrai », mais nous nous devons, sur les « informations » fournies par internet poser les questions basiques suivantes : « qui me parle ? », « Quelle intention a le diffuseur de cette information ou message ? ». En d’autres termes, il faut rester vigilant, et accepter de donner sa confiance à des sources qui nous semblent fiables, mais très souvent sans certitude absolue. Nous devons (ré-) apprendre à maîtriser notre cognition, c’est-à-dire l'ensemble de nos processus mentaux qui se rapportent à la fonction de connaissance . « Connaître et penser, ce n’est pas arriver à une vérité certaine, c’est dialoguer avec l’incertitude » (Edgar Morin, livre « La tête bien faite » édition du Seuil). Etant donné l’utilité incontestable de ce monde numérique, il faut accepter l’utilisation de ces technologies dangereuses qui néanmoins, délivrent de nombreux services utiles dans notre vie. Et en même temps, nous devons adapter nos comportements dans les usages de ces technologies. Nous avons, nous Français, des progrès à faire (voir sur le site Ipsos les statistiques sur notre perception de notre vulnérabilité aux fausses informations).

Rappelons-nous les mots de Marie Curie : « Rien dans la vie n’est à craindre, tout doit être compris. C’est maintenant le moment de comprendre davantage, afin de craindre moins ». Dans notre bulle informationnelle, comprenons donc que nous sommes des cibles, et donc que nous devons apprendre à être des « soldats », comme le dit remarquablement bien Asma Mhalla dans son dernier livre « Technopolitique – Comment la technologie fait de nous des soldats ».

"Ce qui est arrivé, avec les régimes totalitaires du XXème siècle, et qui se déchaîne aujourd'hui, s'est le déploiement inédit de moyens techniques pour tout détruire par la force et de moyens numériques pour tout refabriquer, se redonner un passé et une réalité à la mesure d'un message total, prétendant remplacer la réalité.... Hannah Arendt écrivait (en 1967) 'La liberté d'opinion est une farce si l'information sur les faits n'est pas garantie et si ce ne sont pas les faits eux-mêmes qui font l'objet du débat' " (Olivier Abel, Réforme du 18 avril 2024).

Michel Jannet le 18 avril 2024

Pour aller plus loin :

contact@egalitenumerique.fr

12 rue du Moulin de Coudret
16140 Oradour

Par e-mail

Par courrier