Egalité Numérique

📢 Nous devons tous comprendre les enjeux du numérique et de l'intelligence artificielle (IA)

car nous sommes tous concernés individuellement et comme citoyen, 
même si nous ne sommes pas à l'aise avec Internet.
 

Ce site a pour objectif de donner quelques pistes de réflexions sur les enjeux et risques liés à cette technologie

Une IA responsable ? Que peut-on comprendre par cette question ?

27/09/2025

Une IA responsable ? Que peut-on comprendre par cette question ?

Cet article donne des éléments de réflexion sur la "responsabilité de l'IA". Nous constatons qu'Il existe une forte nécessité de renforcer la lutte contre la désinformation (en particulier grâce au « hypertrucage »), et la protection des droits de propriété intellectuelle et plus généralement l’encadrement de l’IA générative et l’IA Agent.  Certains pays, organisations, individus, ont des attitudes de pyromanes sur les plateformes dans le but de rendre nos sociétés démocratiques ingouvernables. Cette réglementation devrait se faire, au niveau mondial, et au niveau Européen.

Nous avons besoin d’une réglementation exante solide, adaptée à un marché en évolution et à ses produits.

 

Ci-dessous quelques exemples d’IA dont l'usage peut poser problème.  

  • L’IA est utilisée dans la Technopolice, avec la mise en place de caméras qui signalent aux policiers municipaux en temps réel les rassemblements « suspects » ou caméras qui permettent la « filature automatisée d’individus » …
    • Actuellement, les pouvoirs publics donnent la main au secteur privé pour promouvoir, tester des dispositifs dérogatoires à la loi actuelle en vertu d’un double principe : La nécessité d’une urgence ponctuelle et le souhait de ne pas entraver les industriels de la surveillance par des « carcans procéduraux ».
    • Mais il faudra s’assurer que cette surveillance utile pour les délinquants ne vienne pas empêcher le droit de se réunir pour un citoyen. Un cadre réglementaire de ces usages doit être défini par la loi.
  • La reconnaissance faciale a aujourd’hui un taux d’erreur minuscule (0,08% selon le Nist). Mais les erreurs sont problématiques, notamment quand elles conduisent à des arrestations sans cause justifiable.
  • ET il existe des exemples ou l’IA a conduit à des résultats erronés. Un exemple très connu, comme souligné dans plusieurs articles de 2014, l’outil de prédiction de la grippe de Google le Google Flu Trend a surestimé l’épidémie de plus de 50% par rapport à la réalité. « Comme le note Time magazine qui relaie l'information, il s’agit ici d’un cas typique de “big data hubris (exemple d'arrogance du big data, NDLR). Ce n’est pas parce que des entreprises comme Google peuvent amasser un nombre incroyable d’informations autour du monde qu’elles sont capables de les analyser correctement afin de produire une image nette de ce qui se passe (dans le monde).”  Nous devons donc rester vigilants et critiques le cas échéant sur l’IA. 
  • Nous avons eu des exemples, ces dernières années, d'IA "compagnon", ou "assistant", dont les usagers ont eu des comportements mortifères encouragés par leur "compagnon IA".
  • Exemple : ShotSpotter, le système vendu aux municipalités américaines pour détecter automatiquement le son des coups de feux, était annoncé avec un taux de performance de 97%. En réalité, les audits réalisés à Chicago et New York ont montré que 87 à 91% des alertes du systèmes étaient de fausses alertes !

Nous devons donc rester vigilants et critiques le cas échéant sur certains systèmes IA, comme le prévoit l'IA Act de l'Europe. 

 

Responsabilités lièes au choix de l'algorithme et aux données

 

La responsabilité du propriétaire-concepteur-programmeur et celle du choix des données
Larousse donne la définition du mot algorithme : « Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. ». Les algorithmes sont constitués de 2 éléments : 
•    Un choix des données extraites de la vie et des réalités humaines, organisées et sélectionnées par le programmeur-concepteur de l’outil IA. La représentation de la réalité sous forme de données numériques peut nous conduire à tort à faire passer les données pour des ‘’faits’’ en faisant oublier que les ‘’faits’’ sont toujours produits, et que les données ne traduisent jamais que les ‘’effets’’ d’un production souvent faite par des hommes avec des rapports de force et des phénomènes de domination. « Les problèmes de qualité des données sont inhérents au fonctionnement de l’IA et n’ont pas de correctifs. » (d’après  https://danslesalgorithmes.net/ de janvier 2025) 
•    un choix de séquence d’opération (du "modèle algorithmique") :  Les interventions et les réglages de modération des modèles devraient être accessibles, car ils peuvent « représenter des jugements sociaux et moraux plutôt que de simples jugements techniques ». Si un chatbot ne dit rien de ce qu’il s’est passé sur la place Tiananmen en 1989, nous devons pouvoir comprendre pourquoi, défend Zittrain. « Ceux qui construisent des modèles ne peuvent pas être les arbitres silencieux de la vérité des modèles. » (d’après  https://danslesalgorithmes.net/ de janvier 2025).

👉Ces choix (données et séquences d’opération) peuvent refléter des valeurs morales des professionnels de la programmation comme les principaux acteurs de leur construction. --> Toutes ces étapes constituent en réalité des choix éthiques.

 

 

Responsabilité du marketing autour d'un système d'IA
Engouement, battage médiatique ou buzz médiatique (« hype ») autour d'IA toxique 

Pour aller plus loin sur ce thème lire l’article de Hubert Guillaud du 6 sep 25 sur l’escroquerie de l’IA (« The IA con » HarperCollins, 2025 non traduit).

Rappelons qu’aujourd’hui, une partie des gens sur la planète n’ont pas besoin d’IA, et le développement d’outils d’automatisation de masse n’est pas toujours socialement désirable. 

Il existe des systèmes IA mis sur la marché dans le cadre d'une volonté de créer un engouement suite à un battage ou buzz médiatique ("hype"). 

Ces buzz sont souvent dus à des visions apocalyptiques :

  • les pessimistes collapsologues pensent que le développement de l’IA est dangereux
  • les accélérationnistes pensent que le développement de l’IA permettra de sauver l’humanité.

Ces extrêmistes avec vision apocalyptique devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents. Leurs visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety.

Soulignons le fait que les effets probables du développement de certains systèmes d’IA toxiques sont de

  • centraliser le pouvoir, car les infrastructures lourdes demandent de centraliser les investissements, les équipements, et donc limiter le nombre d’actionnaires capables de financer ces systèmes,
  • façonner les opinions et le comportement des utilisateurs, afin de favoriser la génération de profit aux actionnaires accompagnée d’une spéculation financière sans limite, entrainant une dégradation de la confiance dans les médias à laquelle l’IA participe activement.

plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous».

 

La mesure de l'engouement pour ces systèmes IA :
Le journal "Les Echos" du 25 septembre 2025 affiche un article au titre explicite "Les préados deviennent gagas d'IA" qui cite ce chiffre : "22% des préados utilisent un chatbot plusieurs fois par jour" . Autre
 exemple : L’agent conversationnel ChatGPT d'OpenAI, avec ses 700 millions d’usagers, reçoit chaque jour 2,6 milliards de requêtes.   

 

👉 Pour résister à l’engouement de ces systèmes d’IA toxiques, nous devons avoir une volonté politique pour poser des questions sur chaque système qui se déploie.

  • D’où viennent les données ?
  • Qu’est-ce qui est vraiment automatisé ?
  • Quelle est la qualité de l’évaluation de l’utilité des systèmes. 
  • A qui bénéficie le système IA qui est envisagé de déployer, qui en souffre.
  • Quels recours sont disponibles et quelle procédure de plainte est fonctionnelle pour y répondre ?»

 

👉 En exigeant des réponses à ces questions, nos dirigeants doivent mettre en place des politiques pour développer les systèmes qui soient socialement bénéfiques à tous, et interdire (ou limiter) les systèmes IA toxiques pour nos sociétés et démocraties.


-------- 

 

Pour "aller plus loin" , nous vous proposons de lire l'avis du CESE (Conseil Économique Social et Environnemental) de janvier 2025 :  "Pour une IA au service de l'intérêt général" 

contact@egalitenumerique.fr

12 rue du Moulin de Coudret
16140 Oradour

Par e-mail

Par courrier