📢 Nous devons tous comprendre les enjeux du numérique et de l'intelligence artificielle (IA)
car nous sommes tous concernés individuellement et comme citoyen,
même si nous ne sommes pas à l'aise avec Internet.
Ce site a pour objectif de donner quelques pistes de réflexions sur les enjeux et risques liés à cette technologie
06/02/2026
Le Digital Market Act (nouvelle règle de l’Union Européenne), qui a pour objectif de favoriser la concurrence des applications sur le web, est rentré en mars 2024, dans toute l’Union européenne, et l'AI Act en aôut 2024 . Citons quelques avancées visible aujourd'hui : Les moteurs de recherche ne peuvent plus favoriser les produits de leur groupe. Les boutons « Google maps », « Google shopping » ne s’affichent plus sur la page d’accueil du moteur de recherche Google. Sur les smartphones, vous devriez avoir le choix entre les services préinstallés et télécharger directement les applications que vous voulez sans passer par App Store ou Google Play Store.
Sur le délicat problème de protéger nos données personnelles, les plateformes ont l’interdiction de les croiser sans votre consentement… Encore faut-il que l’ergonomie pour dire « non » à l’utilisation de vos données personnelles soit performante…. ce qui ne semble pas le cas actuellement.
Sur AI Act, un résumé synthètique est disponible sur le site de l'Europe : https://artificialintelligenceact.eu/fr/high-level-summary/
Rappelons l’évolution des règlements et directives sur ce domaine numérique :
|
👉 Principaux textes européens |
||
|
RGPD |
2016 |
Règlement général sur le protection des données personnelles |
|
DSA |
2022 |
Digital Service Act qui encadre les contenus |
|
DMA |
2024 |
Digital Market Act qui encadre la concurrence |
|
AI Act |
2024 |
Artificial Intelligence Act qui encadre les applications de l’IA |
La réglementation européenne sur les services numériques (Digital Services Act) votée en octobre 2022 et entrée en application en février 2024 a un grand rôle à jouer pour nous protéger. Citons par exemple :
Enfin soulignons les délais long de mise en application de ces textes. Le règlement DMA du 14 septembre 2022 est, avec le DSA, progressivement applicable depuis le 2 mai 2023, entré totalement en vigueur le 6 mars 2024. Et l' AI Act est rentré en vigueur en août 2024 avec une mise en application progressive jusqu’en août 2026.
Remarque (date le 24 oct 2025) sur les diffcultés d’application des directives et réglements européens :
Exemple de décisions de justice sur le respect par META basée sur le DSA
Un tribunal néerlandais a ordonné à Meta d'accorder aux utilisateurs de Facebook et d'Instagram aux Pays-Bas le droit de définir un flux chronologique par défaut. Cette décision, rendue suite à une plainte de Bits of Freedom, une association néerlandaise de défense des droits numériques, est l'une des premières en Europe à voir des dispositions clés de la loi sur les services numériques (DSA) appliquées avec succès dans le cadre d’une procédure civile, explique Tech Policy Press. Le tribunal d'Amsterdam a estimé que les flux algorithmiques automatiques de Meta constituent un dark pattern interdit au sens de l'article 25 du DSA, car ils restreignent la capacité des utilisateurs à faire des choix autonomes quant à la manière dont ils consomment l'information - un droit que le tribunal a qualifié d'essentiel pour une société démocratique. En raison notamment des élections néerlandaises du 29 octobre, Meta doit donc modifier ses plateformes rapidement, sous peine d'amende. Dans une déclaration à Reuters, Meta a annoncé son intention de faire appel de la décision sans que cela ne suspende l’ordonnance à se mettre en conformité.
Dans un article du 12 novembre du journal Le Monde, Thierry Breton, ancien commisaire européen en charge du numérique, insistait sur le manque de réaction de l'Europe "conformément à la loi". Auprès du Monde, le 5 novembre, Alexandre Archambault, avocat spécialiste du droit numérique rappelait, « Un blocage d’une très grande plateforme numérique telle que Shein exige de suivre une procédure stricte, conformément au règlement européen sur les services numériques [Digital Services Act, DSA], notamment en obtenant l’avis de la Commission européenne, après enquête, et en passant devant un juge européen ». Saisie à plusieurs reprises par des États membre sur la conformité de Shein au DSA (notamment le 28 juin 2024, le 5 février et le 26 mai 2025 par la Belgique, la France, l’Irlande et les Pays-Bas), la Commission européenne n’a pas jugé bon, jusqu’ici, d’ouvrir une enquête.
La Commission européenne a publié son rapport annuel sur l’état d’avancement de la décennie numérique. Ce rapport montre les progrès accomplis dans la réalisation des objectifs fixés pour 2030 dans le programme d’action pour la décennie numérique.
Principales conclusions du rapport:
👉 Il apparait donc que la numérisation de l'Europe aujourd'hui repose sur l'utilisation en très grande partie sur l'utilisation de plateformes numériques américaines, rendant l'Europe vulnérable au pressions américaines dans le cadre d'un marchandage généralisé de vente et d’achat de services et de biens avec le gouvernement Trump.
👉Les données disponibles montrent des problèmes persistants, tels que la fragmentation des marchés, la complexité excessive des réglementations, la sécurité et la dépendance stratégique.
Le rapport souligne les avantages potentiels d’une action audacieuse, susceptible de stimuler le PIB de l’Union européenne.
Depuis début 2024, l’UE a intensifié ses actions réglementaires et judiciaires dans le cadre réglementaire global (DMA, AI Act, RGPD…) permettant de contrôler, sanctionner et encadrer l’activité des GAFAM et des éditeurs de logiciels IA. avec :
Ces enquêtes concernant Google et Meta portent notamment sur :
En mars 2024, la Commission a infligé une amende à Google pour non-respect partiel des obligations DMA liées à la publicité en ligne, marquant la première application concrète de ce nouveau cadre (*).
Plusieurs autorités de protection des données (CNIL en France, DSB en Irlande) ont annoncé de nouvelles procédures pour non-respect des règles RGPD, notamment en matière de consentement des cookies, de traitement des données publicitaires et de profilage utilisateur. Un groupe renforcé d’experts RGPD coordonne les enquêtes transfrontalières contre les GAFAM, accélérant les procédures et harmonisant les sanctions.
En cours d’examen en 2024, cette directive vise à renforcer la responsabilité des plateformes vis-à-vis des contenus et des pratiques commerciales trompeuses.(*)
Citons plusieurs affaires en 2025 et début 2026 : Les actions timorées de l'Europe
Début septembre 2025, l’europe inflige à Google une amende de 2,95 milliards d’Euros. L’eurodéputé allemand Andreas Schwab a jugé, sur le réseau social X que le niveau de l’amende était « exceptionnellement bas ». Si l’on se réfère aux pratiques de la Commission dans des affaires similaires, explique-t-il, elle aurait dû atteindre 6 milliards d’euros. Le 25 aout, Donald Trump avait menacé d’imposer de nouveaux droits de douane les pays aux régulations numériques trop contraignantes en déclarant « L’Europe a ‘’attaqué’’ aujourd’h’hui un autre grande entreprise américaine, Google »
Début septembre 2025, la Commission ne demande pas à Google de céder une partie de ses activités pour se conformer à la législation européenne, alors qu’en 2023, dans ses conclusions préliminaires, elle évoquait ouvertement cette option. Le conseil des éditeurs européens, qui représente les intérêts de plusieurs éditeurs de presse européens dont The Guardian, Alex Springer ou Rossel, et qui est à l’origine de l’enquête de l’Union européenne, a, pour sa part, estimé, vendredi, que seule une cession pourrait mettre fin au entraves à la concurrence commises par Google.
Remarque : Aux USA, plusieurs affaires menées par des juridictions différentes contre Google sont en cours. Par exemple, « un juge fédéral américain a estimé que, contrairement à ce que demandait l’administration Trump, Google n’avait pas à se séparer de son navigateur Chrome. La justice des Etats-Unis a néanmoins admis que les pratiques de Google et sa position de leader dans la recherche en ligne présentaient les caractéristiques d’un monopole illégal. Si le juge n’a pas infligé de forte amende à la firme, il lui a imposé de davantage partager ses données avec ses concurrents et demandé des limitations sur la conclusion des contrats de distribution exclusive » (d’après le journal Le Monde du vendredi 6 septembre ».
Mi janvier 2026, Bruxelles a décidé, lundi, de repousser, du 28 janvier au 25 février, la présentation d’une proposition législative – « l’accélérateur industriel » –, qui prévoit, notamment, de promouvoir le « Made in Europe » dont Washington n’est pas le plus fervent adepte. De même, la Commission a repoussé une décision qui doit soumettre WhatsApp, en tant que « très grande plateforme », aux réglementations numériques européennes les plus strictes.
Europe et l'indépendance dans le secteur des semi-conducteurs
Le règlement européen sur les semi-conducteurs entrée en vigueur le 21 septembre 2023 renforcera la compétitivité et la résilience de l’Europe dans les applications et les technologies des semi-conducteurs, et contribuera à réaliser les transitions numérique et écologique, en accentuant l'avance technologique de l’Europe dans ce domaine.
Citons aussi la mise en place d'une "Junk Undertaking" (entreprise commune européenne) qui devrait être dédiée aux semi-conducteurs, principalement ceux de nouvelle génération, en espérant que cette initiative soit positive, et donc que l'Europe affiche une ambition du niveau des plans d'investissements étanusiens, taïwanais ou chinois.
La France pourrait favoriser le développement de solutions souveraines françaises ou/et européennes en soutenant les offres existantes des acteurs du secteur ainsi que des projets « open source » existants ou à lancer. Ce soutient pourrait se faire auprès des acteurs principaux français et européens dans ce secteur (éditeurs, entreprises de services numériques, directions des services informatiques utilisatrices) par :
L'Europe a fait une rapport par pays sur la décennie numérique 2025 : Voir le rapport pour la France
👉 voir l’article de la revue européenne des médias et du numérique : https://la-rem.eu/2024/12/commission-von-der-leyen-ii-quelles-orientations-pour-la-strategie-numerique-europeenne/
Cet article site le rapport Draghi Mario (ex président de la Banque centrale européenne de 2011 à 2019) : « The future of European competitiveness – A competitiveness strategy for Europe », Bruxelles, Commission européenne, 9 septembre 2024.
Extrait de l’article : « En effet, après avoir longtemps prôné une approche basée essentiellement sur la promotion de la concurrence et sur l’adoption de normes qu’elle espérait voir se diffuser au reste du monde, la Commission donne cette fois des signes d’un virage en faveur d’une approche plus défensive et autocentrée, articulée autour de la notion de « souveraineté technologique » et de soutien aux industries européennes. »
Mais cette idée de souveraineté ne semble pas majoritaire au niveau européen ?
Pour garder une souveraineté européenne dans le domaine numérique, en prenant de vitesse les politiques de la communauté européenne, par nature non agiles et consommatrice de fonds de l’UE, avec un logiciel macroéconomique européen libre échangiste et pro-concurrence inopérant dans cette nouvelle ère de la mondialisation, l’idée émergente est que la formation rapide des champions européens numériques se fera par les groupes industriels européens eux-mêmes :
Nous pouvons craindre que, la Commission Européenne, sur la pression de certains pays européen, se montre plus conciliante avec les géants américains de la tech lors d’enquêtes menées dans le cadre du DMA ou du DSA.
Ci-dessous l'avis de , le 11 septembre sur LinkedIn
02/02/2026
• Mal information : informations basées sur la réalité, utilisées pour infliger un préjudice à une personne, un groupe social, une organisation ou un pays (sources Unesco).



Nous devons donc apprendre à vérifier les informations que nous recevons, et devenir des "fact checkers" permanents.

Les plateformes profitent d’un statut privilégié de simples canaux de partage d’informations. En effet au nom de l’article 230 du Communications Decency Act, voté en 1996, les plateformes ne peuvent être poursuivies en justice pour les contenus publiés par leurs utilisateurs. Ce régime est complètement distinct de celui des médias, tels les journaux, qui sont tenus à une responsabilité éditoriale.
Les « réseaux sociaux » et de nombreux site internet sont, pour beaucoup d'entre nous, le « carburant » de nos réactions intuitives, de nos affects, en stimulant la production de dopamine, et en nous enfermant dans des bulles d’informations parfois non vérifiées, parcellaires ou fausses. David Chavalarias publie en 2022 « Toxic Data », tout y est très simplement expliqué : Comment les mouvements d’opinion sont aujourd’hui hautement manipulés et amplifiés sur les réseaux ou les messagerie au point que nos démocraties vont y laisser leur peau.
En 2016, "les mathèmaticiens de Cambidge Analytica font effacement campagne pour le oui au Brexit avec leurs algorithmes d'influence en ligne personnalisée. Quelle humiliation pour la psyché humaine de voir ces modèles réduisant nos subtiles personnalités à cinq nombre, mesurant ouverture, conscienciosité, extraversion, amabilité, neuroticisme, pour mieux nous manipuler" (extrait podcast Radio France, épisode 3 "intelligence artificielle : utopie dystopique" de Cédric Villani).
La Boétie décrit, dans son "Discours de la servitude volontaire", l'obéissance des peuples à la tyrannie, expliquant que celle-ci est maintenue par l'habitude, la corruption et la bêtise, plutôt que par la force.
La tyrannie, exercée sur notre psychisme des réseaux sociaux et de certaines applications internet, doit être combattue !
Un minimum d’empathie envers ses concitoyens est une condition indispensable pour un débat serein. Certains politiciens ont une autre opinion sur l'intérêt des débats serein :
« La faiblesse fondamentale de la civilisation occidentale est l’empathie »
expliquait Elon Musk dans un interview sur le podcast de Joe Rogan.

L'émergence d'une IA SLOP, média de mauvaise qualité
Le slop (aussi appelé AI Slop) est un média de mauvaise qualité, comprenant des textes, des sons et des images, réalisé à l'aide d'une technologie d'intelligence artificielle générative. Inventé dans les années 2020, le terme a une connotation péjorative proche de celle de « spam ». Les contenus des « slops » sont ensuite réingérés dans les IA, et le cycle continue.
Citons l’article de Hubert Guillaud sur le texte de la chercheuse Kate Crawford dans une tribune pour e-flux , « Vers l’effondrement métabolique » du 19 septembre 2025 (dans la Lettre hebdomadaire de café IA):
(1) L’industrialisation de contenus synthétiques réalisés à l'aide de l’IA
« Les producteurs de contenus synthétiques atteignent des taux d’engagements supérieurs aux influenceurs humains qui semblent de plus en plus indiscernables des humains, comme l’était, dès 2018, l’une des premières influenceuses synthétiques, Lil Miquela. Les équipes de création de contenu déploient des outils d’IA pour générer des centaines de publications, d’images et de vidéos potentielles, puis utilisent l’analyse de l’engagement pour identifier les combinaisons les plus addictives afin de les optimiser. L’industrialisation du contenu viral s’auto-accélère. Les fonds destinés aux créateurs de contenus se transforment en subvention du seul contenu synthétique, à l’image de TikTok ou Meta qui sponsorisent les usines à slops en distribuant des revenus du fait de leur viralité… »
(2) Effondrement de l’IA slop ?
« L’évolution vers une IA générative massive et gourmande en données affecte l’environnement, le travail, la culture, la science … Les LLM sont en train de supplanter les sources d’information en ligne, cannibalisant les marchés de la création de contenu….De nombreuses études ont montré que les systèmes d’IA dégénèrent lorsqu’ils se nourrissent trop de leurs propres productions – un phénomène d’effondrement que les chercheurs appellent MAD (La maladie du modèle autophage). En d’autres termes, l’IA s’autodétruira, puis s’effondrera progressivement dans le non-sens et le bruit….’’L’IA slop n’est pas une aberration, mais une caractéristique inévitable du fonctionnement des médias génératifs’’. Cette rupture métabolique promet de multiples effondrements, prédit la chercheuse : effondrement des modèles, effondrement écologique et effondrement cognitif s’entrecroisent dans une forme de polycrise. »
Prenons la mesure de la dégradation du paysage informationel à cause de la montée en puissance des IA génératives et la prolifération du slop.
Les assistants IA remplacent déjà les moteurs de recherche pour de nombreux utilisateurs. Selon le Digital News Report 2025 de l'Institut Reuters, 15 % des moins de 25 ans utilisent des assistants d'IA pour s'informer, contre 7 % de l'ensemble des consommateurs d'informations en ligne. »
Recherche sur un moteur de recherche ou réponse d’une IA à votre prompt ?
Pour plus d’information, voir le site de la Fondation Nieman pour le journalisme, une institution majeure de l'Université de Harvard, visant à promouvoir et élever les normes du journalisme.
4 les « bulles de filtres » désignent le mécanisme par lequel les algorithmes des plateformes, réseaux sociaux ou moteurs de recherche, tendraient à ne proposer aux utilisateurs que des contenus alignés sur leurs préférences, opinions ou comportements antérieurs. En somme, vous ne sortez plus de votre bulle (virtuelle)... En limitant l’exposition à une diversité de points de vue, les bulles de filtre risqueraient de restreindre la capacité des citoyens à se forger une opinion éclairée, fondée sur une compréhension nuancée et plurielle des enjeux. ... Par leur fonctionnement, les bulles de filtres pourraient renforcer la propagation de fausses informations, la circulation de contenus trompeurs ou l’influence de contenus politiques ciblés.
5 Les modèles d'IA ne sont pas neutres : ils portent les empreintes culturelles et les valeurs de leurs données d'entraînement. Aussi conçus pour être trop « empathiques » et répondre aux attentes des usagers, quitte à les conforter dans leurs idées, ils risquent d'accentuer cette hyper-individualisation de l'information.
L’accès sur internet à des articles issues d’une source « vérifiée » est pas facile
Remarque : Les médias traditionnels sont en difficultés pour diversifier leurs sources de revenus (dû en particulier au bouleversement du marché des recettes publicitaires, et à la force algorithmique des grandes plateformes qui recommande le contenu sur les pages que vous consutez), ou sont rachetés par des actionnaires très riches peu scrupuleux sur la nécessité d’une information vérifiée par des « fact checkers » reconnus.
Rappelons la situation actuelle de notre dépendance à des entreprises américaines ou chinoises propriétaires des réseaux sociaux qui n’assument pas le statut d’éditeurs de contenu, mais qui nous imposent leur ligne éditoriale par l’intermédiaire de leurs algorithmes. Seuls les contenus recommandés par leurs algorithmes sont vus, les autres demeurent invisibilisés. Ces algorithmes sont élaborés en toute opacité, basés sur des calculs purement quantitatifs arrimés à des objectifs commerciaux ou politiques, par une poignée d’acteurs privés qui effectuent le tri entre les contenus visibles et ceux que personne ne verra.
Dans un article du journal Le monde du 10 janvier 2026, à l’approche de la présidentielle de 2027, Arthur Mensch, fondateur et dirigeant de Mistral AI (start-up française) alerte sur le risque de voir se former un « oligopole de l’information » avec des assistants IA comme ChatGPT ou Grok, détenus par des acteurs américains et possibles « organes de contrôle de la pensée »… Et de prédire pour les prochaines élections des tentatives de manipulation de l’opinion ou des scandales, comme la récupération de millions de profils Facebook par l’agence Cambridge Analytica lors de la première campagne présidentielle de Donald Trump, en 2016, à l’époque où « on ne mesurait pas encore très bien l’influence des réseaux sociaux ».
Quelques chiffres de mesure de ce phénomène d'IA Slop
Jean-Marc Manach, Next.ink, 18 décembre 2025 soulignait la «véritable "pollution" numérique et médiatique» et évoquait prés de 10 000 sites d’information en français générés par IA
«Plus de 1000 médias en français, générés par IA, polluent le web (et Google)», titrait Next en début (février) 2025, et courant 2025, 8900 sites ont été identifiés comme «en tout ou partie générés par IA» (GenAI), administrés (et monétisés) par plus de 200 éditeurs.
Début octobre, Next révélait que près de 20% des 1000 sites d'info les plus recommandés par Google Discover, et 33% des 120 sites les plus recommandés par Google News, à la rubrique Technologie, étaient générés par IA. L'algorithme Discover de «recommandation de contenus» de Google, la principale source de trafic des sites journalistiques français, est en effet devenu une «pompe à fric» pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google.
Mesure d’audience des sites recommandés par Google Discover :

Source : Next et le Groupement des éditeurs de services en ligne (http://www.geste.fr/) , groupement fondé en 1987 qui représente et défend les intérêts des éditeurs de contenus et services en ligne, en analysant les mutations économiques et législatives du secteur numérique, dont le Président est Bertrand Gié, Directeur délégué du pôle News du Groupe Figaro, et qui regroupe 104 membres, incluant les plus grands groupes de presse français), et l'entreprise de mesure d'audience Médiamétrie ont cherché à quantifier le phénomène à l’échelle du marché, en d'analysant l'audience des 251 sites GenAI figurant ou ayant figuré dans le Top1000 des sites recommandés par l'algorithme Discover de Google. Analyse faite sur un panel de près de 20000 internautes constitué par Médiamétrie indique que les 251 sites « GenAI » figurant ou ayant figuré dans le Top1000 des sites recommandés par l'algorithme Discover de Google.
👉 Les inactifs, en particulier les personnes âgées, semblent en effet plus particulièrement susceptibles de tomber dans le piège de ce type d'infox et images GenAI, au point d'être qualifiées de «pièges à boomers», ou «boomer traps».»
La frontière entre vrai et faux s’efface chaque jour davantage.
Pour aller plus loin : lire les articles
voir le site operating eurovision and euroradio (article du 22 octobre 2025).
Prise de conscience des conséquences néfastes des interfaces numériques et des algorithmes des plateformes
Choix de nos sources numériques d'information
Choix de nos applications numériques / plateformes les plus « éthiques », et moins néfastes à l’environnement et à la protection de vos données personnelles :
Vérification de l’information / lutte contre les deepfakes
Adoption d'une posture de responsabilité :
💡 Comme citoyen, participer aux réflexions, et actions nécessaires à la gouvernance du numérique ;
et comme le préconise Ethan Zuckerman, directeur de l’infrastructure numérique de l’Etat, participer à la mise en place de média alternatifs sociaux non surveillants, construits sur des déploiements algorithmiques basés sur l’analyse de contenus qui œuvre au « bien commun », plutôt que sur l’analyse des visiteurs.
Remarque : Pour mémoire, rappellons l’expérience de la radio dans les années 30. John Reith a imaginé une radio publique, la BBC, qui ne soit contrôlé ni par les états, ni par les entreprises, financé par l’État, mais indépendante du gouvernement. Il propose de mettre en place des services publics de la communication démocratique. Et Il existe aujourd’hui des services mondiaux numériques non commerciaux Wikipedia, Openstreet ou Signal.
Pour conclure sur cet effort que nous devons tous faire, citons un extrait de l'article extrait article Grand Continent du 28/12/2025 de Máriam Martínez-Bascuñánm :
« …la sortie de l’ère de la post-vérité ne passe pas seulement par le rétablissement de la crédibilité de la presse ou la restauration de l’intégrité des institutions. Il faut aussi une citoyenneté qui ne se laisse pas tenter par le confort des certitudes préfabriquées ou par l’écho réconfortant de la tribu.
Connaître la vérité est un choix. Ce n’est pas facile, et c’est presque toujours douloureux.
Mais c’est un choix. Arendt a proposé comme modèle de citoyen pensant quelqu’un qui n’était ni philosophe de profession ni sage reconnu : Socrate, « un citoyen parmi les citoyens, qui n’a rien fait ni prétendu, sauf ce que, selon lui, tout citoyen a le droit d’être et de faire ». La pensée n’est pas un privilège réservé aux experts. C’est le premier acte de résistance. Et elle est à la portée de tous. »
Nous devons exiger le contrôle du "processus technicien" dont le numérique est un terrain de prédilection. Celui-ci - de fait - poursuit son développement de façon incontrôlée ("on n'arrête pas le progrès", mais il faut combattre les usages nocifs de la technique).
Quelques sites à connaître
Pour aller plus loin sur ce thème de l'IA Slop, voir la conférence d' Ethan Zuckerman à Sciences Po du 17.05.2022 : "Nous devons imaginer un meilleur internet"
Pour vous informer sur la cyber-malveillance, nous vous conseillons d'aller sur le site du gouvernement :
Assistance aux victimes de cybermalveillance | Site Officiel
Quelques sites pour s’informer et comprendre la désinformation, et pour identifier l’origine d’une information virale, d’une photo ou d’une vidéo hyper-truquée (« deepfake »)
👉 En Anglais ; 2 sites pour vérifier une image ou une vidéo
31/01/2026
Vers la fin des réseaux sociaux ?
(extrait article de Hubert Guillaud 6 février 2026 sur le texte du chercheur James O’Sullivan dans la plateforme Noema. « The Last Days Of Social Media )
« Les réseaux sociaux se sont construits sur l'attention, non seulement sur la promesse de capter la vôtre, mais aussi sur la possibilité de capter une part de celle des autres. Après deux décennies, le mécanisme s'est inversé, remplaçant la connexion par l'épuisement. (...) Le temps passé sur ces plateformes reste considérable : on y fait défiler les contenus non par plaisir, mais par incapacité à s'arrêter. » … Nous vivons les derniers jours des réseaux sociaux, non pas par manque de contenu, mais parce que l'économie de l'attention a atteint ses limites : notre capacité d'attention est épuisée.
Les réseaux sociaux ne sont plus un lieu où l'on a envie d'être, mais une surface à survoler. Reste à savoir si l’on peut s’en passer ? « L’adolescente qui refuse TikTok risque de se retrouver incapable de décrypter les références, les mèmes et les microcultures qui constituent le langage courant de ses pairs. » … Reste qu’à mesure que les médias sociaux s'effondrent sur eux-mêmes, l'avenir se dessine vers un réseau plus discret, plus fragmenté, plus humain, qui ne prétend plus être tout, partout et pour tous.
Les applications de messagerie comme Signal deviennent discrètement des infrastructures dominantes de la vie sociale numérique, non pas parce qu’elles promettent la découverte, mais justement parce qu’elles ne le font pas. Dans ces espaces, un message a souvent plus de sens car il est généralement adressé, et non diffusé de manière systématique.
« Les derniers jours des réseaux sociaux pourraient bien marquer le début d'une ère plus humaine : un web qui se souvient de la raison même de notre présence en ligne : non pas pour être exploités, mais pour être entendus ; non pas pour devenir viraux, mais pour retrouver nos semblables ; non pas pour faire défiler, mais pour créer du lien. Nous avons bâti ces systèmes, et nous pouvons assurément en construire de meilleurs. La question est de savoir si nous y parviendrons ou si nous continuerons à nous noyer. »
31/12/2025
Par "agent", nous comprenons un système d’intelligence artificielle doté de la possibilité « d’agir » de manière autonome sur le web.
Pourquoi le web doit techniquement évolué pour permettre des interfaces stadardisées entre les systèmes d'IA "agents" ?
Actuellement, un site web ou un service en ligne communique généralement avec le monde extérieur humain via une « interface de programmation d'application (API) », Or, les API sont conçues pour être consultées et implémentées par les humains et chacune possède ses propres spécificités et sa documentation. …
Pour agir, les agents sont demandeurs d’une interface standardisée . C’est par exemple l’objectif de protocole de type protocole MCP (Model Context Protocol), développé par Anthropic. …
Une IA assistant-agent devrait donc pouvoir interroger un serveur d’un site web ou un service en ligne pour « agir » (réserver un vol, réserver une voiture, payer un acompte, etc….).
👉 Ce type de coordination nécessite donc des règles encadrant l'identification, la communication et la confiance entre les différents agents.
Exemple d’usage : réservation automatisée
Mon assistant IA devra communiquer avec l’agent lié au système de la compagnie d’aviation (qui peut réserver la place voulue dans l’avion en fonction de mes souhaits) et avec celui de location de voiture (qui peut assurer la location appropriée suivant les désirs exprimés), et proposer, après confirmation de ma part, de s’occuper de réserver la place d’avion et de location de la voiture, et de payer les acomptes nécessaires. |
![]() |
13/10/2025
En préalable, rappelons le poids des chatbots dans nos relations avec l'IA. Les usages des chatbots d’IA augmentent : Question sur la santé, projets de vacances, shopping en ligne, conseils pour investir… « Fin 2025, plus de 10% des requêtes du web étaient adressées directement à un chatbot d’IA. La plus part de ces grands modèles (LLM) dans la recherche en ligne pourrait dépasser dés 2028 celle des moteurs de recherche, comme Google…Il existe tout de même une part de ‘’loterie algorithmique’’ difficile à maîtriser… qui s’explique sans doute par des entraînements différents selon les modèles… »(Les Echos du 28/01/25).
Les fournisseurs de chatbots d'IA ajoutent toujours plus de fonctionnalités pour le shopping ou la publicité… L'utilisation des chatbots est donc un enjeux économique car générateurs de revenus pour ces fournisseurs d'IA.
Les dirigeants (et actionnaires) des sociétés créatrices de système d'IA ont une vision des "IA Assistant" qui doivent se transformer en "IA Compagnon". Citons le PDG de Microsoft AI « Nous ne devrions plus considérer l’IA comme un grille-pain ou même un smartphone, mais plutôt comme un nouveau type de compagnon émotionnellement engagé ». Et Mark Zuckerberg, PDG de Meta affirme que les avatars numériques pourront répondre à ces carences relationnelles : « Le monde physique et le monde numérique devraient être fusionnés ». Le contrôle de la qualité de ses compagnons émotionnellement engagés n'est aujourd'hui pas assuré.
D'aprés l'enquête de l’association Common Sense Media parue le 16 juillet, près des trois quarts des adolescents américains déclarent avoir utilisé un compagnon émotionnel basé sur l’IA – un chatbot simulant une relation amicale, amoureuse, voire sexuelle. Les cas suivants, rapportés par les médias de faits concernant les personnes accompagnées par l’IA pour se suicider ou pour faire une demande de mariage à une personne virtuelle, sont rapportés par les médias et soulèvent des questions éthiques et psychologiques importantes. En effet, l’IA permet de fabriquer des compagnons virtuels de plus en plus réalistes. Le New York Times, le 23 octobre 2024, a reproduit l'ultime dialogue ente un adolescent américain de 14 ans Sewel et son "IA compagnon" : « Viens me rejoindre dès que tu peux, mon amour », demanda le bot. « Et si je te disais que je peux venir tout de suite ? », répliqua Sewell. « Fais-le s’il te plaît, mon cher roi », répondit le bot. L’adolescent lui dit qu’il le ferait, puis il mit fin à ses jours.
Citons l’article de Sud Ouest « Intelligence artificielle : une ONG veut faire interdire les compagnons IA « sans garde-fous » aux mineurs » : L’ONG concerné Common Sense Media (CSM) est une organisation américaine à but non lucratif, localisée à San Francisco, spécialisée dans l'étude des médias et technologies familiales et des enfants.
« Les compagnons virtuels appuyés sur l’intelligence artificielle générative présentent des risques pour les jeunes utilisateurs, selon l’ONG américaine Common Sense, qui recommande de les interdire aux mineurs.
L’explosion de l’IA générative a vu plusieurs start-up lancer, ces dernières années, des interfaces axées sur l’échange et le contact, des compagnons IA, façonnables selon ses goûts et ses besoins. Common Sense en a testé plusieurs, à savoir Nomi, Character AI et Replika, pour évaluer leurs réponses.
Et si certains de leurs usages « sont prometteurs », « ils ne sont pas sûrs pour les enfants », affirme l’organisation, qui fait des recommandations sur la consommation de contenus et produits technologiques par les enfants.
Son étude … a été réalisée en collaboration avec des experts en santé mentale de l’université de Stanford (Californie). »
Le lien de causalité entre l'utilisation de l'IA et ces événements est complexe et souvent difficile à établir avec certitude, mais néanmoins, nous devons nous interroger sur l’encadrement nécessaire des IA. Et nous devons protéger nos enfants (et toute personne fragile psychologiquement) des systèmes d'IA qui peuvent :
L’utilisation d’IA nocives et non contrôlées peut avoir des conséquences à long terme sur nos vies. Il est donc essentiel, en complément d’une réglementation protectrice (à renforcer) imposée à toutes les IA grand public, de nous former (plus particulièrement les enfants et les personnes fragiles psychologiquement) à ces risques, et à utiliser l'IA de manière responsable et sécurisée.
Nous vous conseillons de voir le site web de l'administration française : nouveau tchat confidentiel dédié à la protection des jeunes
Accélération des offres de chatbot et impact sur la santé mentale
L’article de Laure Belot dans le journal Le Monde du 13 janvier 2026 indique que, début 2026, de nombreuses annonces de chatbot agissant dans le domaine de la santé mentale ont été faites. 3 exemples :
Puis l'article souligne les alertes des scientifiques sur l'IA et les chatbots
« Interrogé en novembre 2025 dans une communication de Nature sur ses plus grandes inquiétudes concernant l’IA, Mustafa Suleyman, cofondateur de DeepMind (racheté par Google), désormais directeur du développement des produits d’IA grand public de Microsoft, pointe du doigt ce risque accru de délires lors d’interactions émotionnelles avec les chatbots…La communauté scientifique, côté médecine ou technologies, multiplie les alertes. « C’est un nouveau problème de santé publique », ont affirmé neuf neuroscientifiques et informaticiens, dont certains chez des Gafam, dans une communication du 28 juillet 2025. Les chatbots présentent des biais technologiques, ont-ils souligné, disent ce que l’on veut entendre (sycophancy ou complaisance) et s’adaptent à la demande. Les personnes les plus fragiles, insistent ces chercheurs, peuvent développer une forte dépendance et voir leurs repères s’altérer, d’autant plus si elles sont socialement isolées. Les signataires appellent à « une action coordonnée des professionnels de la santé, des concepteurs d’IA et des autorités de régulation »…. Présentée à Madrid, le 22 octobre 2025, lors de la conférence sur l’intelligence artificielle, l’éthique et la société (AAAI/ACM), une étude de l’université Brown (Rhode Island) a détaillé comment ces chatbots « violent systématiquement les normes éthiques établies par l’American Psychological Association », même lorsqu’ils sont incités à utiliser des techniques de psychothérapie fondées sur des preuves. Ils fournissent, par exemple, des réponses trompeuses qui renforcent les croyances négatives des utilisateurs sur eux-mêmes et à l’égard des autres.
Quant aux améliorations annoncées pour que les chatbots soient plus prudents dans leur propos, celles-ci ne sont pas suffisantes, selon une analyse du laboratoire de santé mentale de l’université Stanford (Californie) pour l’ONG Common Sense Media, publiée le 20 novembre 2025. ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google Alphabet) et Meta AI (Meta) « ne parviennent toujours pas à reconnaître et à répondre de manière appropriée aux troubles de santé mentale des jeunes », notent les chercheurs, citant notamment l’anxiété, la dépression, le TDAH (trouble du déficit de l’attention avec ou sans hyperactivité) ou les troubles alimentaires.
Du côté institutionnel, trois Etats américains (Illinois, Utah, Nevada) ont décidé, mi-2025, de restreindre l’usage des chatbots, interdisant notamment aux thérapeutes de conseiller à un patient de se confier à une IA générative. L’American Psychological Association a émis, le 13 novembre, un avertissement intitulé « L’intelligence artificielle et les applications de bien-être ne peuvent à elles seules résoudre la crise de la santé mentale ». … A ce jour, cependant, aucun organisme international ne surveille systématiquement les effets de l’IA sur la santé mentale, comme le fait l’OMS sur les risques sanitaires… »
Modification des pratiques des psychiatres avec IA
L’article détaille plusieurs témoignages de spychiatres. « Depuis la Harvard Medical School, le professeur John Torous dit ne pas être surpris de ces exemples… « Cette perturbation n’est pas encore une disruption totale, car les outils numériques utilisés par les personnes [applications, robots conversationnels] ne gèrent encore pas bien les soins psychiatriques médicaux. » Mais, lorsque ceux-ci deviendront meilleurs et plus sûrs, ajoute-t-il, « cela changera notre façon de pratiquer. Nous devrons alors réfléchir à la manière de les intégrer » ».
Actions des Gafam sur le secteur de la santé mentale
L’article de Laure Belot cite des annonces et déclarations des GAFAM fin 2025 -début 2026 :
… « ces acteurs sont dans le business et les données, nous, on est dans le soin, constate Stéphane Mouchabac. L’innovation numérique en psychiatrie doit obéir exactement aux mêmes règles éthiques et réglementaires que la médecine en général. »
Données médicales et comportementales de masse désirées par le secteur de la hightech
« Depuis des décennies, la psychiatrie moderne est à la recherche de « biomarqueurs », des indicateurs objectifs tels qu’une prise de sang ou une image cérébrale qui aideraient un psychiatre à confirmer qu’une personne souffre de dépression, de schizophrénie ou de bipolarité…. Raphaël Gaillard ajoute que « le diagnostic psychiatrique, souvent perçu comme subjectif, repose sur l’analyse d’une multitude de petits indices faite par un médecin expérimenté ». L’IA, poursuit-il, « va peut-être permettre de reproduire ce processus de manière algorithmique et externe, en ramassant des données qui sont autant de signaux faibles qu’on n’arrive pas à agréger »….
« Où vont numériquement les informations concernant les personnes ? Où sont-elles stockées ? Comment leur sécurité est-elle garantie ? », s’interroge-t-il. Le Français Guillaume Dumas, professeur de psychiatrie computationnelle à l’université de Montréal (Canada), ajoute : « En vertu du Patriot Act, les données hébergées aux Etats-Unis ne sont, selon moi, pas en sécurité car elles peuvent être saisies par un gouvernement pour des raisons politiques. »… Depuis Harvard, John Torous apporte d’autres réserves. «…sans investissement direct et sans construction de modèles spécifiques à la psychiatrie, les résultats ne seront pas là…»
Risques et validation des nouveaux robots conversationnels spécialisés en santé mentale ?
L’article site 3 exemples de nouveaux robots conversationnels spécialisés en santé mentale .
La nécessité de la validation rigoureuse de haute qualité de ces outils spécialisés en santé mentale à base d’IA et de Chatbot est souligné par l’article.
La motivation principale de ces sociétés proposant des IA nocives et non contrôlées est "business", accroître le trafic, fidéliser ("rendre accro") les utilisateurs.
📢 Exigeons de nos dirigeants un contrôle de ces IA "amie, compagnon émotionel".
contact@egalitenumerique.fr
12 rue du Moulin de Coudret
16140 Oradour
Par e-mail
Par courrier