Egalité Numérique

📢 Nous devons tous comprendre les enjeux du numérique et de l'intelligence artificielle (IA)

car nous sommes tous concernés individuellement et comme citoyen, même si nous ne sommes pas à l'aise avec Internet. 

Ce site a pour objectif de donner quelques pistes de réflexions sur les enjeux et risques liés à cette technologie

Risques de l'IA : Nous devons en prendre la mesure !

01/12/2025

Risques de l'IA : Nous devons en prendre la mesure !

L'IA (Intelligence artificielle) n'est pas une simple évolution technologique, mais probablement une révolution schumpétérienne, et aussi une révolution cognitive, civilisationnelle et anthropologique … 

Cet article aborde les risques liés à l’IA dans divers domaines : la géopolitique, la qualité de l’information et son impact sur nos démocraties, l'environnement, le monde du travail, notre souveraineté, nos processus cognitifs et émotionnels, la mise en oeuvre d' IA "agent", d'une "super intelligence" ... et souligne la vulnérabilité de ce secteur (risque de « bulle » financière, risques géopolitiques au niveau de l’accès aux infrastructures de l’IA, et ceux inhérents de cybersécurité au niveau de la couche des applications de l’IA). 

Nous devons nous interroger sur l'IA capacitante versus l'IA aliénante

 

Signalons « l’appel mondial » lancé lundi fin septembre 2025 à l’occasion de la 80session de l’assemblée générale des Nations unies par un groupe d’ONG (Centre pour la Sécurité de l’IA (CeSIA), The Future Society et le centre de recherche Center for Human-Compatible AI (CHAI) de l’université Berkeley), et de personnalités (pionniers de l’IA, prix Nobel d’économie…) …

« Sans règles internationales contraignantes, l’humanité s’expose à des périls imminents : pandémies d’origine artificielle, manipulation de masse, déstabilisation géopolitique ou perte de contrôle sur des systèmes autonomes », assure l’appel. Revendiquant l’inspiration des traités internationaux ayant banni l’usage des armes biologiques ou du clonage humain, ses promoteurs plaident pour l’instauration de « limites “claires et vérifiables” pour certains usages et comportements de l’IA considérés comme universellement inacceptables en raison des risques de dommages extrêmes et irréversibles auxquels ils exposent l’humanité. » … ils citent des exemples limitant un comportement ou un usage de l’IA : le lancement d’armes nucléaires, les armes autonomes, la surveillance de masse et la notation sociale, la manipulation volontaire en se faisant passer pour des humains, les attaques cyber d’ampleur, le développement d’armes chimiques ou la création d’IA qui pourraient s’autorépliquer ou que les humains ne pourraient désactiver… »… « Tous les types de risques sont importants » (Extrait Article Le Monde du 13 septembre)

 

Rappelons nous les mots de Marie Curie :

« Rien dans la vie n’est à craindre, tout doit être compris. 

C’est maintenant le moment de comprendre davantage, afin de craindre moins ».

 

Quelques éléments de contexte de l’utilisation de l’IA 

 

Évoquons trois conditions techniques actuelles pour le fonctionnement des systèmes d’IA :

Volumes de données nécessaires : Les IA nécessitent des importants volumes de données stockées dans des systèmes nommés « big data », soulevant la question de la protection des données personnelles (voir www.cybermalvellance.gouv). En 2014, les données de 87 millions d'utilisateurs Facebook sont siphonnées par la société Cambridge Analytica, avec l'autorisation de Facebook.
Les données sont "le pétrol" des IA. 

Puissance informatique : L’usage des data centers a un impact environnemental notable (gaz à effet de serre, eau, métaux précieux…). Pour mémoire, le numérique représente 3 à 4 % des émissions mondiales de gaz à effet de serre (voir le site de l’ARCEP : « L'empreinte environnementale du numérique »).

Vulnérabilité des réseaux : Les réseaux et infrastructures restent exposés aux risques dans un contexte géopolitique instable, avec des conséquences sur la sécurité des démocraties.

 

Remarque : Pour alléger le poids de ces 3 conditions techniques, une nouvelle offre d'IA, les TRM (Tiny Recursive Models) cherche à se développer. Contrairement à la technologie des Large Language Models (LLM) pré-entraînés s’appuyant sur d’énormes corpus de données, les Tiny Recursive Models (TRM) utilisent une ingénierie plus ciblée. 

 

 

 

Concentration actuelle du pouvoir dans le secteur de l'IA aux mains de quelques entreprises  

L'article de Meredith Whittaker, présidente de la messagerie cryptée Signal, dans le média Le Grand Continent, développe les points ci-dessous :

  • Historique de ce processus de concentration

La grande bifurcation d’Internet dans les années 1990 : Les plateformes numériques se sont développées en créant des réseaux de communication non réglementés, et en développant ce marché, avec des économies d’échelle et la collecte de masse de données pour alimenter un modèle économique fondé sur la publicité et la surveillance. La captation du marché par quelques entreprises américaines s’est faite sur les effets des réseaux. Ainsi Facebook, Google, Amazon Marketplace, Microsoft avaient au début des années 2010 déjà calibré leurs capacités de calcul pour stocker et traiter de grandes quantités de données.

Au cours des années 2010, la technologie « deep learning » (appentissage profond) s’est imposé pour rendre un certain type d’IA à nouveau très pertinent. L’approche du « deep learning » construite à partir de certains développements des années 1980 (*) devenait à nouveau pertinente car il était désormais possible de tester ces algorithmes sur les infrastructures des acteurs qui disposaient de plateformes massives au sein desquelles ils stockaient et traitaient des données en quantité colossale à partir des années 1990.

 
(*)Yann Le Cun, chercheur français Yann LeCun, l’un des pères de l’intelligence artificielle moderne («deep learning»),avait travaillé par exemple sur la « rétropropagation », une méthode mathématique essentielle pour l'entraînement des réseaux de neurones artificiels, permettant aux modèles d'IA d'apprendre de leurs erreurs et d'ajuster leurs paramètres pour améliorer leurs prédictions.

 

  • Situation actuelle de l’accès au marché de l’IA

L’accès au marché de l’IA rend toujours ce modèle dépendant d’un hyperscaler (*). L’accès au marché est donc contrôlé par ceux qui possèdent des serveurs cloud, qui concèdent des licences d’accès et commercialisent sous différents noms et avec différentes marques le protocole d’un modèle donné, ou par ceux qui disposent de plateformes dans lesquelles ils peuvent intégrer un modèle d’IA.
70 % du marché mondial des infrastructures cloud est contrôlé par trois entreprises américaines. C’est un avantage géopolitique extraordinaire. 

(*)Les hyperscalers sont de grandes infrastructures de données qui offrent des solutions cloud computing et des services de traitement et de stockage de données à grande échelle, capables de s'adapter dynamiquement à la demande. 

 

 

 

 

 

Les principaux risques de l'IA.

Les risques de l'IA et le web

 

Risque sur notre notre attention, notre capacité individuelle 
à agir sur le monde, notre agentivité

 

Le livre « Pour une nouvelle culture de l’attention » (Odile Jacob avril 2024) détaille précisément les éléments conduisant à cette situation de risques sur notre notre agentivité, c'est à dire notre capacité individuelle à agir, donc à produire des effets causaux sur lui par nos propres actions…Les interfaces Internet pilotées par l‘IA interviennent sur les méchanismes de « contrôle exécutif » de nos actions et de notre attention au monde (numérique) qui incluent diverses fonctions et capacités de : 

    • création et maintien de l’information la plus pertinente pour arriver à notre objectif, 
    • maintien de l’attention sur ce qu’on veut atteindre,
    • mise en œuvre des processus d’inhibition des autres comportements inappropriés à notre action-.

L’IA utilisée dans les interfaces des réseaux sociaux, des sites marchands, des sites ou blogs à vue politique… agit en grande partie sur notre agentivité par la fatigue de l’attention générée sur internet. Soulignons le manque de connaissance de ce que font réellement les algorithmes qui sont censés nous apporter de l’aide à la décision. La multiplication des stimuli suscite de l’effort pour résister aux distracteurs… Les sollicitations incessantes des interfaces numériques (messages, vidéos, notifications, etc.), sans pause de « restauration de notre attention », aggravent le phénomène de fatigue intentionnelle. Plusieurs impacts de la fatigue de l’attention ont été démontrés : 

    • Une baisse de l’efficacité de notre mémoire à long terme, 
    • La multiplication des fautes d’inattention, d’erreurs humaines
    • L’augmentation de la probabilité de re-partager de fausses informations sur les réseaux sociaux sans en vérifier la véracité ni les sources. En effet, cette démarche de vérifier la véracité et les sources d’information est prenante (« time consuming ») et exigeante, pas dans l’esprit d’une interaction rapide avec Internet. 

 

Le poison de l'IA utilisée dans les interfaces des réseaux sociaux, sites marchands, sites ou blogs à vue politique… agit sur notre agentivité par exacerbation des techniques de  capture et d’exploitation de notre attention par l’hyperpersonnalisation des messages et l’optimisation des mécanismes émotionnels. Les marketeurs parlent « de nous informer et former », nous les usagers d’internet, comprenez de nous « mettre en condition d’acheter » leurs produits par internet et/ou former nos opinions, et souvent, pour atteindre leur objectif, de nous abrutir ou nous rendre « accrochés ». Nir Eyal, un des anciens étudiants de Fogg [Brian Jeffrey Fogg, directeur du Laboratoire des technologies persuasives de Standford], qui a ensuite conçu pendant plusieurs années des publicités placées sur Facebook, est l’auteur de ''Hooked : How to build habit-forming products’ (‘Accroché : comment construire des produits addictifs’) ». 


Extrait du livre « Pour une nouvelle culture de l’attention » :

« La façon dont les réseaux sociaux et les applications numériques capturent notre attention, consiste à assimiler celle-ci aux stratégies des casinos, de l’industrie du tabac, et encore de l’industrie alimentaire avec les aliments sucrés » . « Serge Tisseron résume les enjeux de ces nouvelles formes de « conversations personnalisées avec chacun d’entre nous » : « l’attention morcelée suscités aujourd’hui chez les utilisateurs du Net, va […] se substituer une relation nouvelle de l’homme à ces technologies numériques : de longue conversation suscitant un éventail d’émotions large et varié, nourri par l’illusion d’une présence réelle, attentive et chaleureuse…. Différents risques ont d’ores et déjà pu être identifiés et analysées, notamment par la CNIL (Avis sur les assistant vocaux 2021) ». 

 

Citons aussi  le livre " La civilisation du poisson rouge - Petit traité sur le marché de l'attention  de "Bruno Patino

"«  Le poisson rouge tourne dans son bocal. Il semble redécouvrir le monde à chaque tour. Les ingénieurs de Google ont réussi à calculer la durée maximale de son attention  : 8 secondes. Ces mêmes ingénieurs ont évalué la durée d’attention de la génération des millenials, celle qui a grandi avec les écrans connectés  : 9 secondes. Nous sommes devenus des poissons rouges, enfermés dans le bocal de nos écrans, soumis au manège de nos alertes et de nos messages instantanés.
Une étude du Journal of Social and Clinical Psychology évalue à 30 minutes le temps maximum d’exposition aux réseaux sociaux et aux écrans d’Internet au-delà duquel apparaît une menace pour la santé mentale. ... Nous sommes tous sur le chemin de l’addiction  : enfants, jeunes, adultes." 
 

 

Les risques pour l'éducation du transfert à des machines (dopées à l'IA) d'une partie de nos activités cognitives :

Le web, aujourd'hui alimenté en grande partie par des systèmes IA, peut nous apporter de la connaissance, si nous gérons bien notre navigation devant les écrans, mais ne fournit pas d'aide à l'acquisition des fondamentaux de l’enseignement : l’esprit critique, la complexité, la collaboration, la créativité, l’incertitude…  Nous vous conseillons cette video de Hugo Decrypt : https://www.youtube.com/watch?v=AM01IUcUiOw

Le risque d'être diminué dans sa psyché, dans ses capacités d’attention, dans sa volonté d’apprendre, dans ses compétences cognitives, est bien réel.

"Le cerveau ... se développe et se construit en réponse aux pressions environnementales qu'il subit. Un fort niveau de sollicitations construit l'intelligence, tandis qu'un défaut de stimulation réduit l'effort et l'apprentissage. Autrement dit : quand les activités cognitives fondamentales sont transférées à des acteurs externes, on observe une sous-stimulation cognitive qui, à terme, pénalise le développement cérébral." (article "vers l'intelligence humaine dégénérative" L'audace n°1 (déc 2025) de Michel Desmurget et Marius Bertolucci)

 

 

Risques pour l'Environnement 

 

Le déploiement de l'IA consomme énormément d'eau, d'énergie (et donc émetteur de CO2 aujourd'hui), de métaux précieux. Le rapport SPEC 2014 de l'AFNOR et son rapport pour une IA frugale énoncent des méthodologies de calcul et des bonnes pratiques pour mesurer et réduire l’impact environnemental de l’IA, et pour communiquer avec des allégations justes et vérifiables. Ce point a été présenté par de nombreux médias, et n'est pas développé dans cet article. 

 

Vulnérabilités du secteur


Ces points sont aussi soulignés par Meredith Whittaker, présidente de la messagerie cryptée Signal, dans le média « Grand Continent » du 1/11/2025, et aussi dans le journal Les Echos du 25/11/2025 "lIA, une opportunité risquée". 


Risque d’un bulle financière « IA » ? : 3 raisons pour redouter une telle bulle


•    Aujourd’hui, les entreprises d’IA sont valorisées, mais ne font pas de bénéfices — elles ne parviennent même pas au seuil de rentabilité. Et il paraît difficile à certains experts d’imaginer clairement le retour sur investissement. La volonté désespérée de trouver le marché qui satisfera les investisseurs et d’atteindre le seuil de rentabilité conduit à des choix de plus en plus imprudents :
•    Le danger des « schémas de dettes circulaires » :  Un exemple récent était l’investissement de Nvidia (le fournisseur de cartes à puces nécessaires aux data centers) dans Open AI (le propriétaire de Chat GPT qui a besoin de data centers puissants). Cela stimule donc aussi leur action et ils récupèrent leur argent. Citons aussi des investissements dans des start-ups de l’IA, investissements qui sont parfois faits sous forme d’accès aux infrastructures de ces hyperscalers pour que ces IA servent à améliorer ces infrastructures— ce qui conduit à faire grimper le cours des actions des hyperscalers. Ceux qui financent leurs clients non rentables pour que ces derniers puissent leur passer commande et justifier leur propres dépenses dans des digantesques centres de données  provoque une incertitude dans les milieux boursiers. 
•    Certains pensent que les promesses de performance et utilité des IA faites sur le marché s’éloignent de plus en plus de la réalité matérielle du fonctionnement de ces systèmes, et de leurs limites. 

 

Risques inhérents de cybersécurité au niveau de la couche des applications de l’IA


Contamination des « bases de données » manipulé par les LLM : « Une étude récente d’Anthropic a montré qu’il suffisait de 250 documents « contaminés » dans la base de données d’un LLM, quelle que soit sa taille — ils peuvent parfois contenir plusieurs milliards de datapoints — pour créer une faille permettant des manipulations poussant les LLM à des actions malveillantes. « C’est un peu abstrait dit comme cela, mais pour comprendre il suffit de se dire qu’il est impossible de nettoyer une masse informe de données qui a été récupérée en vrac sur l’ensemble d’Internet. Nous avons aussi affaire à des escrocs qui vendent l’accès aux API — les interfaces entre les modèles et les applications — et aux LLM à nos militaires pour prendre des décisions. »
Intégration d’ « agents » dans nos systèmes (robots qui effectuent des tâches complexes à notre place sans nous demander la permission) : …Si vous utilisez un « agent » pour, à votre place, réserver un billet pour aller au cinéma, prévenir vos amis, faire une réservation au restaurant, ces « agents » ont besoin d’accéder à une énorme quantité de données d’une manière très peu sécurisée. « L’agent » a besoin d’accéder à votre carte de crédit, à votre navigateur pour rechercher un restaurant, à votre historique de navigation, à votre calendrier, à tous vos événements … Il s’agit d’une menace existentielle pour la sécurité et la confidentialité au niveau de la couche des applications — une sécurité et une confidentialité sur lesquelles s’appuient toutes les armées, tous les gouvernements et toutes les organisations de défense des droits de l’homme…Toute personne ayant des connaissances techniques de base ne peut nier cette analyse. À nous de la faire connaître le plus largement possible pour mettre fin à cette folie. »

 

Risque pour notre souveraineté numérique
dans un cadre géopolitique et économique mouvant

Risques géopolitiques au niveau de l’accès aux infrastructures de l’IA

Au plan géopolitique, l’IA est un outil de contrôle stratégique. Les gouvernements, les institutions et toutes les start-ups européennes spécialisées dans l’IA continuent de fonctionner principalement sur l’infrastructure américaine ou ont à tout le moins besoin d’accéder à certaines parties de cette infrastructure. Lorsque le cloud d’Amazon tombe en panne, 30 % d’Internet peut être hors service — et ces coupures nous affectent tous. 

Le sommet sur l'IA à Paris le 10 et le 11 février 2025 a donné lieu à beaucoup d'articles d'analyse sur ce thème de notre souveraineté française et européenne.

 

La politique  (et la législation) américaine contraire à notre souveraineté numérique :

Dernièrement, les Etats Unis marchandent leur protection dans le cadre de l'OTAN à l'occasion du conflit Ukraine-Russie, garantie de protection "indexée à des marqueurs de loyauté" : achat d'armement aux Etats-Unis, droits de douane désiquilibrée (en particulier sur les services numériques américains peu ou pas taxés), diminution du cadre juridique européen (IA act, DMA, DSA, RGPD...) sur les services numériques en Europe.

Le CLOUD Act américain, adopté en 2018, permet aux instances de justice américaines de contraindre les fournisseurs de services établis sur le territoire des États-Unis à fournir les données stockées sur des serveurs situés aux USA ou dans d’autres pays. Cette législation extraterritoriale représente une menace directe pour la souveraineté des données européennes. Même si les serveurs sont physiquement localisés en France, un tribunal américain peut ordonner l’accès aux données. Cette réalité juridique rend illusoire toute prétention à une véritable souveraineté numérique tant que l’État français continue de dépendre massivement des solutions américaines.

Dans une tribune au journal Le Monde du 24 octobre 2025, David Monniaux, Directeur de recherche au CNRS, souligne les dangers de la dépendance numérique européenne à l’égard des géants du Web, soumis à la législation américaine.

« Durant l’été 2025, la société Microsoft a confirmé qu’elle remettrait les données de ses utilisateurs aux autorités états-uniennes si celles-ci les réclamaient, quand bien même elles seraient stockées en France…application d’une loi américaine de 2018, le Cloud Act. …Donald Trump parle de retirer le soutien des Etats-Unis à l’Organisation du traité de l’Atlantique Nord (OTAN) au moment même où des appareils militaires russes violent l’espace aérien de pays membres, et il ordonne des mesures de rétorsion à l’égard du procureur de la Cour pénale internationale, Karim Khan. Microsoft, qui gère des services informatiques externalisés pour cette cour, a coupé le courrier électronique de ce magistrat… Les tentatives pour sortir de la dépendance, comme le remplacement de Windows par Ubuntu Linux à l’Assemblée nationale en 2007, furent souvent raillées. Microsoft, longtemps en situation de quasi-monopole et dégageant des marges considérables, a pu continuer d’extraire de la rente…Revenons-en aux années 2020. Les piratages à répétition d’hôpitaux, d’universités – dont furent victimes, notamment, Paris Saclay et Grenoble INP –, d’entreprises, dont les services administratifs et financiers furent ensuite bloqués pendant des mois, illustrent bien notre dépendance au numérique. … Un des rares organismes publics qui aient eu une stratégie de long terme est la gendarmerie nationale, qui a d’abord remplacé la suite bureautique Microsoft par une suite libre, puis la quasi-totalité de ses postes Windows par sa propre distribution Linux (GendBuntu)…."

Dans le journal Le Figaro du 29 octobre, 35 personnalités dont le haut fonctionnaire Patrice Huiban, l’ancien ministre Arnaud Montebourg et la journaliste Natacha Polony, alertent sur la dépendance américaine de nos clouds labélisés « de confiance ». Ils y voient un danger pour notre souveraineté numérique. " Les données sont devenues l’un des actifs les plus stratégiques de notre époque. Leur maîtrise conditionne désormais notre souveraineté, tant économique que politique. Tout comme la question de la souveraineté énergétique par le nucléaire depuis les années 60, la question de l’indépendance numérique est aujourd’hui cruciale pour la France. Clés de l’intelligence artificielle, les données alimenteront des gains de productivité exponentiels pour nos entreprises et services publics. Sans contrôle sur leur hébergement, ces bénéfices iront enrichir les géants américains comme Google, Apple, Facebook, Amazon et Microsoft (GAFAM), aggravant le décrochage économique français."

 

Quelques exemples de décisions de l'Etat Français contraires à une souveraineté dans le numérique :

En mars 2025, le ministère de l’Éducation nationale a attribué un marché public d’un montant minimum de 74 millions d’euros pour équiper ses services en solutions Microsoft, avec une enveloppe pouvant atteindre 152 millions d’euros sur quatre ans. En juin 2025, en plein VivaTech où la souveraineté numérique était sur toutes les lèvres, un scandale révélateur éclate : Visibrain, seul acteur français indépendant spécialisé dans la veille stratégique des réseaux sociaux, est évincé d’un appel d’offres du Service d’Information du Gouvernement (SIG) qu’il détenait depuis 2017. Le paradoxe est saisissant : Visibrain obtient la meilleure note technique parmi tous les candidats mais perd le marché au profit de Talkwalker, une solution luxembourgeoise rachetée en 2024 par le canadien Hootsuite, lui-même contrôlé par des capitaux américains. 

 

 

👉 Pour garder une souveraineté européenne dans le domaine numérique, en prenant de vitesse les politiques de la communauté européenne, par nature non agiles et consommatrices de fonds de l’UE, l’idée émergente est que la formation rapide de champions européens numériques se fera moins par des projets communs décidés politiquement que par les groupes industriels européens eux-mêmes :

  • guidés par les profits à venir,  
  • soutenus par une législation du type « buying act » obligeant les gouvernements européens  à s’approvisionner prioritairement en biens (équipements, services) produits sur le sol européen et une législation empêchant le rachat de nos champions par des fonds étrangers américains ou chinois

👉 Il est plus que temps pour la France et l’Europe de réagir à cette dépendance, par ailleurs très coûteuse, à des prestataires étrangers qui peuvent à tout moment lui couper ses infrastructures informatiques …alors que des solutions à base de logiciels libres, gérées localement, seraient souvent possibles.

 

Risque "désinformation" sur nos démocraties et 
Risque "Opacité et contrôle" de nos politiques publiques

Sans information correcte pour chaque citoyen, la démocratie ne peut pas fonctionner. Avec l'IA, des images, textes, vidéos peuvent être créés pour nous donner une impression d'avoir une information sur le réel, alors que des politiques et des puissances étrangères utilisent cet outil pour fabriquer de fausses informations. La désinformation contemporaine est devenue multiforme, rapide et industrialisée, visant les perceptions, les émotions et la cohésion sociale des sociétés adverses. Pour aller plus loin voir notre article sur la désinformation.

L’écosystème de la désinformation « s’étend à des entreprises commerciales, des idéologues ou même des particuliers cherchant à prouver leur valeur dans le domaine de l’influence numérique. Ce système s’auto-alimente grâce à la baisse des coûts technologiques : Internet, les réseaux sociaux et l’intelligence artificielle permettent à de nouveaux acteurs d’entrer dans la compétition informationnelle, créant un environnement où la frontière entre vérité et manipulation devient de plus en plus floue... Les outils numériques ont révolutionné la désinformation. Les deepfakes, les sites générés par IA, ou les campagnes de désinformation massives sur les réseaux sociaux permettent de diffuser rapidement des récits fabriqués. Ces méthodes favorisent la vitesse, la viralité et le brouillard informationnel, rendant la vérification de plus en plus complexe. L’objectif n’est plus seulement de faire croire à une fausse information, mais de provoquer une saturation cognitive : submerger les citoyens de récits contradictoires jusqu’à ce qu’ils ne croient plus en rien. Cette stratégie s’avère redoutable, car elle mine les fondements mêmes de la démocratie et du débat rationnel. » extrait de l'article sur le site diploweb.com de Christine Dugoin-Clément, Chercheuse à l'Observatoire de l'intelligence artificielle - Université Panthéon-Sorbonne

L'intervention de pays étrangers dans notre univers informationnel :

Les élites militaires russes ont théorisé depuis trente ans le contournement de la lutte armée, qui n’est plus jugée aussi centrale pour atteindre ses objectifs politiques. Il s’agit d’actions non militaires, comme les opérations psychologico-informationnelles, ou de menées militaires indirectes, comme des actes de sabotage, des assassinats ou l’emploi de sociétés militaires privées pour atteindre ses cibles.
Les sociétés américaines et chinoises fournisseur d'IA.

 

 

Notre relation à l'administration de nos états peut devenir plus opaque. Citons l'article de Hubert Guillaud du

"L’IA prédictive comme générative semble offrir une multitude d’avantages à l’élaboration des politiques publiques : de l’analyse de données complexes à l’optimisation des ressources. Elle semble à la fois être capable d’apporter une vision globale et d’identifier les leviers permettant de la modifier. Recourir à l’IA signifie mettre en place des politiques conduites par les données, ce qui permet d’assurer une forme d’objectivité, notament quant il s’agit de rationner le service public…  Mais, cette production de solutions politiques semble oublier que l’IA est incapable de résoudre les problèmes structurels. Elle propose des solutions performatives qui obscurcissent et amplifient les problèmes..."

Guillaud site un article de Dan MacQuillan, maître de conférence au département d’informatique de l’université Goldsmiths de Londres : « La complexité de l’IA introduit une opacité fondamentale dans le lien entre les données d’entrée et les résultats, rendant impossible de déterminer précisément pourquoi elle a généré un résultat particulier, empêchant ainsi toute voie de recours".

Le développement de l’Intelligence artificielle peut permettre aussi une surveillance de l’État. Des projets tels que l’initiative Skynet de la Chine montrent comment l’IA peut être utilisée pour surveiller et contrôler les populations, ce qui peut conduire à une érosion des normes démocratiques. Ces systèmes s’appuient sur l’IA pour collecter de grandes quantités de données sur les citoyens, en leur attribuant des notes de crédit social qui affectent leur statut social et leurs libertés.

 

Risques sur le monde du travail

Un rapport du Fonds monétaire international (FMI), élaboré à l’occasion du Forum économique mondial 2024, à Davos, soulignait que 40 % des emplois dans le monde pourraient être impactés par l’IA.

Depuis 20 ans, les études se multiplient sur l’automatisation et les risques de disparition du travail : 

  • En 2017, le Conseil d’orientation pour l’emploi estimait que 10% des emplois seraient menacés de disparition d’ici 2030 ans en France.
  • En 2013, deux chercheurs de l’Université d’Oxford, Frey & Osborne, prédisent 47 % d’emplois détruits d’ici 20 ans aux États-Unis.
  • En 2014, le cabinet Roland Berger estimait que 42% des emplois seraient menacés en France d’ici 20 ans.
  •  En 2017, le Conseil d’orientation pour l’emploi prévoyait quant à lui, suivant une autre méthode, que 10 % des emplois étaient menacés de disparition, mais que la moitié des emplois seraient potentiellement automatisés à plus de 50 %.
  • En 2018, l’OCDE soulignait que la proportion d’emplois automatisables varie grandement en fonction des pays de 40 % dans certains à 4% dans d'autres.
  • Mais certains sont plus pessimistes. « Quelque 800 000 emplois pourraient être détruits par l’IA générative, en France, au tournant de la décennie », selon une étude du cabinet Roland Berger de novembre 2023

 

Dans le processus de développement ("fabrication") de l’Intelligence artificielle, de nombreuses personnes, en particulier dans les régions économiquement moins développées, comme au Kenya ou Madagascar, se retrouvent dans des situations d’exploitation. Ces travailleurs sont souvent chargés de la labellisation des données, un processus essentiel mais peu connu dans le domaine de l’apprentissage automatique, pour des salaires bien inférieurs au niveau de vie.

 

IA dans les entreprises en 2025 : Quel apport quantifiable ? IA Slop ?

La mission d’information relative aux effets de l’IA sur l’activité et la compétitivité des entreprises françaises, créée en mars 2025 par la commission des Affaires économiques de l’Assemblée nationale a rendu son rapport. Les co-rapporteurs, les députés Antoine Golliot et Emmanuelle Hoffman ont formulé 70 recommandations pour que l’IA devienne « un levier de compétitivité et de souveraineté ». Le rapport dresse pourtant une analyse nuancée et souligne que la diffusion de l’IA reste encore très inégale et que son impact sur la productivité et l’organisation du travail est difficile à évaluer.

(ci-dessous, extrait de l’article de Laure Coromines dans le journal Le Monde du 27 octobre 2025 « l’IA au bureau, entre perte de temps et perte de sens »)

IA slop (« soupe » en français), ce contenu bas de gamme généré par les IA générative, infiltre le lieu de travail : des textes uniformisés, pondus à la hâte et de piètre qualité. Envahissant boîtes e-mail et Google Drive, ils prennent la forme de messages obscurs, de rapports creux ou de présentations PowerPoint superfétatoires…

Aux USA, en septembre 2025, un sondage de l’université Stanford a montré que 40 % des travailleurs américains avaient déjà reçu du contenu généré par l’IA de la part d’un collègue ou d’un manageur, et ce toutes industries confondues…Lus en diagonale, ces contenus arborent le verni du travail bien fait. Examinés de prés, ils n’auraient, selon le sondage, « pas la substance nécessaire pour faire avancer de manière significative une tâche donnée » …. Le Financial Times a épluché des centaines de documents (comptes rendus de réunions, transcriptions d’assemblées générales, rapports de résultats…) produits par les 500 plus importantes entreprises américaines. D’après le média, les entreprises parlent d’IA en permanence sans toutefois pouvoir expliquer en quoi la technologie les aide…. En Australie, au début de l’année(2025), le cabinet de conseil Deloitte a vendu au ministère de l’emploi un rapport de 237 pages (facturées 440 000 dollars australiens, environ 250 000 euros) bourrées d’erreurs produites par des IA. A New York, en 2023, un juge a mis à l’amende un avocat pour avoir produit devant la cour un mémoire juridique constitué uniquement d’affaires inventées par ChatGPT…. En juillet, une étude du MIT révélait que 95 % des entreprises américaines n’ont aucun retour sur leurs investissements en IA.

 

l’IA qui nous augmente et l’IA qui nous remplace ?

L’IA peut aider à acquérir des savoirs,  et des savoir-faire dans certains domaines,  mais pas des savoir-êtres que seule la vie collective,  en particulier celle au travail, apporte. Il existerait aujourd’hui un courant de pensée selon lequel 

  • l’IA ne remplacera pas les emplois dans une grande majorité de métiers, mais 
  • les personnes qui peuvent utiliser l’IA remplaceront celles qui ne le peuvent pas. 
  • Les outils d’IA générative … peuvent accroître l’efficacité dans pratiquement toutes les tâches ou tous les secteurs d’activité. »

Dans une enquête qualitative menée en 2023 analysant 96 cas d’application d’implémentation de l’IA au sein de différents métiers dans huit pays de l’OCDE, l’économiste Anna Milanez montre que ses effets sur le travail sont nuancés. Les effets sur les travailleurs sont positifs ou négatifs selon les situations (gain de temps ou de confort, accroissement de la surveillance des salariés, solitude, surcharge cognitive, etc.). 

 

Daron Acemoglu, prix Nobel d’économie 2024, dans un article du journal Le Monde du 29 décembre 2024, souligne que, pour les entreprises qui se lanceraient dans les technologies numériques sans une idée claire de la manière dont elles pourraient améliorer la productivité, « son déploiement massif en remplacement des travailleurs humains aboutit à tous les inconvénients, sans aucun avantage… Tragique pour les travailleurs, tragique pour la vie sociale et politique, tragique parce que nous aurions alors manqué une formidable opportunité… L’IA est une technologie de l’information… (qui) a pour fonction de passer au crible d’immenses quantités d’informations... ». Nous avons aujourd’hui une abondance d’informations, « mais les informations utiles se font rares… (et ces informations utiles) stimulent la productivité ». L’IA doit donc s’appliquer à des problématiques ou elle est capable de fournir de meilleures informations. « Nous avons besoin d’un paradigme industriel qui, plutôt que célébrer la supériorité des machines, met en avant leur avantage principal : l’amélioration et l’élargissement des capacités humaines ».

 

 

Risque d'une IA "agent" (qui agit sans contrôle humain),
risque d’un « super-intelligence »

Losque ces systèmes sont conçus pour prendre des actions pour nous ("IA agent"), il existe un risque que ces systèmes effectuent des actions problématiques, comme effectuer des transactions non autorisées, usurper l'identité d'une personne, déclencher une arme létale.... La réduction de la surveillance humaine constitue la principale vulnérabilité de ces systèmes. 
Des programmeurs-concepteurs, avec un bonne intention d’être « performant », peut développer une IA qui conduit à des situations globales non satisfaisantes, dangereuses, sur un principe « l’IA doit devenir plus gros, plus puissant (plus de matériel, plus d’énergie…) pour être performant  » jusqu’au moment ou une IA serait capable de s’améliorer elle-même, conduisant logiquement à rentrer dans un terrain inconnu de « super-intelligence » incompréhensible pour nos cerveaux de primate. D’où l’importance de sécurité de l’IA qui implique un principe de contrôle s’opposant à « l’économie de marché » sans garde-fou privilégiant le dogme de la compétition entre industries.

Un article d' Arnaud Leparmentier du journal Le Monde du 10 octobre 2025 cite M. Soares du laboratoire de Berkeley, en Californie, le Machine Intelligence Research Institute (MIRI), chercheur passé par Microsoft et Google « L’IA d’aujourd’hui n’est pas conçue minutieusement comme les logiciels traditionnels. Elle se développe comme un organisme vivant, ce qui signifie qu’elle peut présenter des comportements imprévus et indésirables ».

Les 3 catégories de scénarios effrayants

« Cet avertissement s’inscrit dans le fil des lettres ouvertes exigeant un moratoire sur l’IA, signées par les sommités de cette technologie début 2023, dont le Prix Nobel de physique Geoffrey Hinton et Yoshua Bengio, tous deux Prix Turing (l’équivalent du Nobel d’informatique) pour leurs travaux sur l’IA, et réitérées en octobre 2025. …Elon Musk a aussi estimé, fin 2024, lors d’un forum en Arabie saoudite, qu’il y avait de 10 % à 20 % de chances que « les choses tournent mal ». …Dario Amodei, le patron du géant de l’IA Anthropic : « Je pense qu’il y a 25 % de chances que les choses tournent vraiment très mal. »…Sam Altman, patron d’OpenAI, l’inventeur de ChatGPT, a exposé, en juillet 2025, lors d’un colloque à Washington, « trois catégories de scénarios effrayants » :

  1. un sale type acquiert une superintelligence et en fait un mauvais usage avant que le reste du monde puisse se défendre ;
  2. une perte de contrôle de l’IA, où, comme dans les films de science-fiction, l’IA dit : « Je ne veux pas que vous m’éteigniez » ;
  3. « les modèles prennent accidentellement le contrôle du monde » …ils deviennent tellement ancrés dans la société et sont tellement plus intelligents que nous que nous ne pouvons pas vraiment comprendre ce qu’ils font mais nous devons nous fier à eux. Et même sans une once de malveillance de la part de qui que ce soit, la société peut simplement prendre une direction étrange ». 

 

C’est la problématique de laisser l’avenir des êtres humaines entre des mains privées. Des actions sont en cours aujourd’hui :

Au niveau des états : création de structures en charge de s’assurer la sécurité des IA, et mise en place de textes legistlatifs comme celles de l'Europe. Citons : 

  • A.I. safety Institut aux Etats Unis
  • AI Safety institut de l’UK (dans le « Department of Science, Innovation and Technology » 
  • L’AI act de l’Europe, et les structures de l'Europe concernés par le contrôle des réglementations
  • Le projet de loi SB1047 en Californie encadrant l’utilisation de l’IA par les sociétés
  •  …

Au niveau des entreprises productrices d’IA (DeepMind, Anthropic, OpenAI, Mistral…) consciente de l’IA et consacrant des moyens de contrôle de leur système d’IA... , mais peu d'informations vérifiables circulent

Au niveau des citoyens, nous devons faire part de nos inquiétudes dans les sondages, et dans les urnes pour le contrôle d’une l’IA.  

 

 

Conclusion

 

Les technologies numériques boostées par l’IA :

  • s’immiscent dans tous les pans de notre vie,
  • s’inscrivent majoritairement dans une logique de temps réel… poussant conséquemment à agir dans le moindre délai et délégitimant le temps, spécifique, de la réflexion,
  • ont un pouvoir d’infléchissement de nos comportements, de destruction de notre « agentivité » (capacité à réfléchir et à agir),
  • sont très majoritairement produites par une techno économie. Scientifiques et ingénieurs ne sont plus indépendants mais soumis à des objectifs marketing ou géopolitiques d’un petit groupe d’hommes.
  • sont souvent affectés d’un statut d’autorité, induit par leurs efficacités et relèvent d’un seul esprit utilitariste, en passant sous silence les effets nocifs pour l'environnement.

 

 

Nous avons besoin des technologies numériques boostées par l’IA qui collaborent au bien commun.

« Pour y parvenir, nous avons besoin d’un nouveau narratif dans les médias, dans les cercles politiques et dans la société civile, ainsi que de meilleurs réglementations et mesures politiques ». « Certains discours ont mis en avant des « promesses, prophéties, mythes, prédictions » qui se sédimentent en idées politiques, en particulier la destruction de la régulation, dans une représentation d’un futur si lointain qu’il permet de ne plus être fixé dans un cadre politique normé ». (Daron Acemoglu, prix Nobel d’économie 2024, article du journal Le Monde du 29 décembre 2024). 

 

A notre niveau individuel, nous devons reprendre le contrôle de notre attention, et notre capacité à agir devant ce monde numérique envahissant et souvent abrutissant, pour assurer entre autres notre rôle de citoyen éclairé. Et nous devons pour nous et nos proches éviter d'utiliser des produits numériques nocifs

A notre niveau de citoyen, nous devons tous exiger de nos politiques, en s’appuyant sur des courroies de transmission comme des associations ou partis politiques ou des fournisseurs de solutions numériques éthiques, qu’ils s’engagent à agir rapidement pour défendre l’intérêt général, et la démocratie. 

 

 

 

Pour aller plus loin : 

 

 

 

Quelques sites qui nous ont paru intéressants (Cette liste n'a pas la prétention d'être exhaustive)

 

voir le rapport d'octobre 2025 "Littératie en IA"

 

Liste de quelques sites pour faire votre expérience de site d’IA 

 

Liste de quelques livres qui nous ont paru intéressants (Cette liste n'a pas la prétention d'être exhaustive): 

  • livre de Eric Sadin "L’Intelligence artificielle ou l’enjeu du siècle – Anatomie d’un antihumanisme radical "
    (L’échappée, 2018).
  • livre de Gérard Bronner "déchéance de rationalité" chez Grasset qui propose de comprendre notre impuissance contemporaine face à ce que beaucoup appellent la post truth societyère post-vérité ») du fait de la montée en puissance de l'usage social d'internet, de la blogosphère et des médias sociaux. 
    livre du journaliste Thibault Prévost, Les prophètes de l’IA (Lux éditeur, 2024) 
  • livre roman MANIAC du Chilien Benjamin Labatut se déploie de 1933 à 2019 autour de trois personnages historiques : le physicien autrichien Paul Ehrenfest, le mathématicien américain John von Neumann et le champion de go sud-coréen Lee Sedol. S'il s'agit d'un triptyque, c'est parce que le livre relate l'avènement d'un nouveau Dieu: l'Intelligence Artificielle.
  • livre « Pour une nouvelle culture de l’attention » (Stefana Broadbent, Florian Forestier, Mehdi Khamassi, Célia Zolynski) Odile Jacob
    •    …

contact@egalitenumerique.fr

12 rue du Moulin de Coudret
16140 Oradour

Par e-mail

Par courrier