Egalité Numérique

📢 Nous devons tous comprendre les enjeux du numérique

car nous sommes tous concernés individuellement et comme citoyen,
même si nous ne sommes pas à l'aise avec Internet.
 
si  vous  n'êtes pas à l'aise avec  "ce qu' est l'IA", vous trouverez  une explication simple ici, .

Ce site a pour objectif de donner quelques pistes de réflexions sur les enjeux et risques liés à cette technologie

Quelle gouvernance pour une IA responsable ?

27/09/2025

Quelle gouvernance pour une IA responsable ?

Cet article donne des éléments de réflexion sur la gouvernance du numérique. Il existe une forte nécessité de renforcer la lutte contre la désinformation (en particulier grâce au « hypertrucage »), et la protection des droits de propriété intellectuelle et plus généralement l’encadrement de l’IA générative et l’IA Agent.  Certains pays, organisations, individus, ont des attitudes de pyromanes sur les plateformes dans le but de rendre nos sociétés démocratiques ingouvernables. Cette réglementation devrait se faire, au niveau mondial, et au niveau Européen.

Nous avons besoin d’une réglementation exante solide, adaptée à un marché en évolution et à ses produits.

Algorithme et données de l'IA 

 

La responsabilité du propriétaire-concepteur-programmeur et celle du choix des données
Larousse donne la définition du mot algorithme : « Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. ». Les algorithmes sont constitués de 2 éléments : 
•    Un choix des données extraites de la vie et des réalités humaines, organisées et sélectionnées par le programmeur-concepteur de l’outil IA. La représentation de la réalité sous forme de données numériques peut nous conduire à tort à faire passer les données pour des ‘’faits’’ en faisant oublier que les ‘’faits’’ sont toujours produits, et que les données ne traduisent jamais que les ‘’effets’’ d’un production souvent faite par des hommes avec des rapports de force et des phénomènes de domination. « Les problèmes de qualité des données sont inhérents au fonctionnement de l’IA et n’ont pas de correctifs. » (d’après  https://danslesalgorithmes.net/ de janvier 2025) 
•    un choix de séquence d’opération (du "modèle algorithmique") :  Les interventions et les réglages de modération des modèles devraient être accessibles, car ils peuvent « représenter des jugements sociaux et moraux plutôt que de simples jugements techniques ». Si un chatbot ne dit rien de ce qu’il s’est passé sur la place Tiananmen en 1989, nous devons pouvoir comprendre pourquoi, défend Zittrain. « Ceux qui construisent des modèles ne peuvent pas être les arbitres silencieux de la vérité des modèles. » (d’après  https://danslesalgorithmes.net/ de janvier 2025).

👉Ces choix (données et séquences d’opération) peuvent refléter des valeurs morales des professionnels de la programmation comme les principaux acteurs de leur construction. --> Toutes ces étapes constituent en réalité des choix éthiques.

 

 

Exemples et mécanismes explicitant la notion de « responsabilité » de l’IA
Donnons quelques exemples d’IA posant problème.  L’IA est utilisée dans la Technopolice, avec la mise en place de caméras qui signalent aux policiers municipaux en temps réel les rassemblements « suspects » ou caméras qui permettent la « filature automatisée d’individus » …Actuellement, les pouvoirs publics donnent la main au secteur privé pour promouvoir, tester des dispositifs dérogatoires à la loi actuelle en vertu d’un double principe : La nécessité d’une urgence ponctuelle et le souhait de ne pas entraver les industriels de la surveillance par des « carcans procéduraux ». Mais il faudra s’assurer que cette surveillance utile pour les délinquants ne vienne pas empêcher le droit de se réunir pour un citoyen. Un cadre réglementaire de ces usages doit être défini par la loi.
La reconnaissance faciale a aujourd’hui un taux d’erreur minuscule (0,08% selon le Nist). Mais les erreurs sont problématiques, notamment quand elles conduisent à des arrestations sans cause justifiable.
Mais, il existe des exemples ou l’IA a conduit à des résultats erronés. Un exemple très connu, comme souligné dans plusieurs articles de 2014, l’outil de prédiction de la grippe de Google le Google Flu Trend a surestimé l’épidémie de plus de 50% par rapport à la réalité. « Comme le note Time magazine qui relaie l'information, il s’agit ici d’un cas typique de “big data hubris (exemple d'arrogance du big data, NDLR). Ce n’est pas parce que des entreprises comme Google peuvent amasser un nombre incroyable d’informations autour du monde qu’elles sont capables de les analyser correctement afin de produire une image nette de ce qui se passe (dans le monde).”  Nous devons donc rester vigilants et critiques le cas échéant sur l’IA. 


La responsabilité du propriétaire-concepteur-programmeur et celle du choix des données
Larousse donne la définition du mot algorithme : « Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. ». Les algorithmes sont constitués de 2 éléments : 
•    Un choix des données extraites de la vie et des réalités humaines, organisées et sélectionnées par le programmeur-concepteur de l’outil IA. La représentation de la réalité sous forme de données numériques peut nous conduire à tort à faire passer les données pour des ‘’faits’’ en faisant oublier que les ‘’faits’’ sont toujours produits, et que les données ne traduisent jamais que les ‘’effets’’ d’un production souvent faite par des hommes avec des rapports de force et des phénomènes de domination. « Les problèmes de qualité des données sont inhérents au fonctionnement de l’IA et n’ont pas de correctifs. » (d’après  https://danslesalgorithmes.net/ de janvier 2025) 
•    un choix de séquence d’opération (du "modèle algorithmique") :  Les interventions et les réglages de modération des modèles devraient être accessibles, car ils peuvent « représenter des jugements sociaux et moraux plutôt que de simples jugements techniques ». Si un chatbot ne dit rien de ce qu’il s’est passé sur la place Tiananmen en 1989, nous devons pouvoir comprendre pourquoi, défend Zittrain. « Ceux qui construisent des modèles ne peuvent pas être les arbitres silencieux de la vérité des modèles. » (d’après  https://danslesalgorithmes.net/ de janvier 2025).

👉Ces choix (données et séquences d’opération) peuvent refléter des valeurs morales des professionnels de la programmation comme les principaux acteurs de leur construction. --> Toutes ces étapes constituent en réalité des choix éthiques.

 

 

Certains systèmes d'IA : engouement, battage médiatique ou buzz médiatique (« hype ») organisé pour être une escroquerie ?

Pour aller plus loin sur ce thème lire l’article de Hubert Guillaud du 6 sep 25 sur l’escroquerie de l’IA (« The IA con » HarperCollins, 2025 non traduit).

Certains extrémistes ont des visions apocalyptiques :

  • les pessimistes collapsologues pensent que le développement de l’IA est dangereux
  • les accélérationnistes pensent que le développement de l’IA permettra de sauver l’humanité.

Ces visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety.

Rappelons qu’aujourd’hui, la plupart des gens sur la planète n’ont pas besoin d’IA, et le développement d’outils d’automatisation de masse n’est pas socialement désirable. Soulignons le fait que les effets probables du développement de certains systèmes d’IA toxiques sont de

  • centraliser le pouvoir, car les infrastructures lourdes demandent de centraliser les investissements, les équipements, et donc limiter le nombre d’actionnaires capables de financer ces systèmes,
  • façonner les opinions et le comportement des utilisateurs, afin de favoriser la génération de profit aux actionnaires accompagnée d’une spéculation financière sans limite, entrainant une dégradation de la confiance dans les médias à laquelle l’IA participe activement.

plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous».

Ces extrêmistes avec vision apocalyptique devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents.

La mesure de l'engouement pour ces systèmes IA : Le journal "Les Echos" du 25 septembre affiche un article au titre explicite "Les préados deviennent gagas d'IA" qui cite ce chiffre : "22% des préados utilisent un chatbot plusieurs fois par jour" . Autre exemple : L’agent conversationnel ChatGPT d'OpenAI, avec ses 700 millions d’usagers, reçoit chaque jour 2,6 milliards de requêtes.   

Pour résister à l’engouement de ces systèmes d’IA toxiques, nous devons avoir une volonté politique pour poser des questions sur chaque système qui se déploie.

  • D’où viennent les données ?
  • Qu’est-ce qui est vraiment automatisé ?
  • Quelle est la qualité de l’évaluation de l’utilité des systèmes. 

Exemple : ShotSpotter, le système vendu aux municipalités américaines pour détecter automatiquement le son des coups de feux, était annoncé avec un taux de performance de 97%. En réalité, les audits réalisés à Chicago et New York ont montré que 87 à 91% des alertes du systèmes étaient de fausses alertes !

  • A qui bénéficie le système IA qui est envisagé de déployer, qui en souffre.
  • Quels recours sont disponibles et quelle procédure de plainte est fonctionnelle pour y répondre ?»

👉 En exigeant des réponses à ces questions, nos politiques doivent mettre en place des politiques pour développer les systèmes qui soient socialement bénéfiques à tous, et interdire (ou limiter) les systèmes IA toxiques pour nos sociétés et démocraties.


Une IA réglementée? Par qui ? 


Un rappel de l’action de l’Europe dans le numérique et des problématiques associées
•    1995 : Adoption de la directive sur les données personnelles
•    2000 : Adoption de la directive sur le commerce électronique 
            qui règlement les transactions en ligne et l’e-commerce dans l’Europe
•    2004-13 : Régulation du numérique par la concurrence. 
            2004 : 1ère amende de Microsoft (497 millions €) pour 
            « abus de position dominante » 
            2009 : Amende d’INTEL de 1,06 milliards € pour 
            « abus de position dominante »  sur le marché des microprocesseurs
            2013 : 2ème amende de Microsoft (561millions €) pour 
             avoir imposé son navigateur internet Explorer
•    2016 : Adoption du règlement RGPD …
•    2014-2024 : Législation comme les réglements « DMA » et  DSA »
•    Le 6 septembre 2023 :  Identification par l’Europe de « plateformes contrôleurs  d’accès »
•    2024 : « AI ACT (Artificial Intelligence Act)


Récapitulatif de principaux textes européens réglementant le numérique

RGPD 2016    Règlement général sur le protection des données personnelles
DSA    2022    Digital Service Act qui encadre les contenus
DMA    2024    Digital Market Act qui encadre la concurrence
RIA      2024    communément appelé AI Act (Artificial Intelligence Act) qui encadre les applications de l’IA. 

👉Pour l'information sur cet AI Act, vous trouverez un résumé sur le site de l'Europe : 
https://artificialintelligenceact.eu/fr/high-level-summary/
ou ce podcast 

 

 

👉Soulignons les délais longs de mise en application des textes de l’Union Européenne ! Comme citoyen, nous devons exiger de nos politiques d’avancer rapidement sur la nécessaire réglementation de l’IA et son application strique. Le Règlement européen sur l’Intelligence Artificielle (RIA) a été publié au Journal Officiel le 12 juillet 2024. Il entre en vigueur vingt jours après, soit le 1er août 2024. L’entrée en application se fera de façon échelonnée :

  • 2 février 2025 : Interdictions relatives aux systèmes d’IA présentant des risques inacceptables ;
  • 2 août 2025 : Applications des règles pour les modèles d’IA à usage général ; nomination des Autorités compétentes au niveau des États membres de l’UE ;
  • 2 août 2026 : Toutes les dispositions du Réglement sur l'IA deviennent applicables, en particulier les règles relatives aux systèmes d’IA à hauts risques, comme ceux traitant de la biométrie. 

👉Soulignons aussi peut-être un manque de volonté politique. Dans le journal Le Monde du 30 août 2025, il est souligné que l’Europe, aujourd’hui, n’a pas déclenché la procédure européenne « anti coercition ». « Au niveau purement juridique, tous les éléments nécessaires au déclenchement de cet instrument sont réunis, commente Alan Hervé, professeur de droit public à Sciences Po Rennes. Encore faut-il qu’il y ait une volonté politique et l’aval des Etats membres. Certains, comme l’Allemagne, l’Italie et d’autres n’y sont pas favorables. ». Pour Alexandre De Streel, professeur de droit européen à l’université de Namur (Belgique), « le risque est majeur de voir la Commission européenne ou des Etats membres privilégier la protection de certains secteurs économiques, comme l’automobile, en choisissant d’appliquer moins strictement le DMA et le DSA. On peut déjà constater que la Commission ralentit la cadence, ouvre moins d’enquêtes depuis le retour de Donald Trump au pouvoir ». L’ enquête lancée en 2023 contre X, l’entreprise d’Elon Musk, pour violation supposée du DSA s’éternise.

 

 

Gouvernance de l’IA partagée par de nombreux autres acteurs


De nombreux acteurs sont impliqués :  l’industrie, les  Etats et organismes internationaux, associations, universités…

Industries : Un petit nombre de sociétés, liées en trés grande partie aux plateformes évoquées ci-dessus, exercent un contrôle sur les ressources clefs comme les données, la puissance de calcul, l’expertise.  Ces sociétés pèsent lourd dans la gouvernance de l’IA par le sponsoring de la recherche dans les outils hyper-techniques, et la création de consensus autour de concepts alignés avec leurs intérêts “business”.
Etats et organismes internationaux : Citons l’OECD, l’UNESCO, le G20, l’ONU.. 
•    OECD Recommendation on AI, https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449 
•    UNESCO's Recommendation onthe Ethics of AI, 2021 : « Recommandation sur l’éthique de l’intelligence artificielle » qui est sensée aider chaque gouvernement à mettre en œuvre une politique conforme à cet objectif
https://unesdoc.unesco.org/ark:/48223/pf0000381137_fre  

•    the G20 AI Principles https://wp.oecd.ai/app/uploads/2021/06/G20-AI-Principles.pdf 
•    Citons aussi l’action de l’ONU pour favoriser la réflexivité et notre capacité à prendre des décisions conformes aux objectifs que nous nous fixons, par exemple le programme #marquonsunepause de l’ONU. Dans le cadre de l’initiative « Vérifié », l’ONU a lancé la campagne #MarquonsUnePause qui encourage les citoyens à réfléchir avant de partager une information sur les réseaux sociaux. « Vérifié »( Verified), une initiative des Nations Unies lancée en mai 2020 pour communiquer des informations sanitaires accessibles et scientifiquement fondées dans des formats convaincants et partager des histoires de solidarité mondiale autour de la COVID-19.

Citons aussi les universités, les organismes de normes comme l’AFNOR ou « International Organization for Standardization (ISO) »…
Le paysage de la gouvernance de l’IA est complexe, et l’inclusion de la société civile varie considérablement d’un pays à l’autre. Les obstacles à la participation de la société civile comprennent un accès limité à certains lieux de décision, à des contraintes d’information et de compréhension de ce domaine complexe accompagnées de contraintes financières (le numérique représente un budget important pour beaucoup de ménages), et la nécessité de bâtir des organismes qui doivent être des courroies de transmission (comme des associations), dotés de sites internet facilement accessibles…) pour faire entendre leur voix auprés des décideurs. Malgré ces défis, la société civile demeure un intermédiaire clé, pour défendre l’intérêt public dans la gouvernance de l’IA. 

 

Les principes d’une politique publique française ou/et européenne ?


Ces principes a été défendus par le CESE (centre économique social et environnemental)  dans un rapport "Pour une intelligence artificielle au service de l'intérêt général" . Quatre types d'actions semblent nécessaires :

 

  • des actions de formation 
    • pour expliquer simplement et démystifier l’IA, et rétablir la confiance entre cette technologie et ses utilisateurs. A la base de cette formation, une obligation de transparence aux fournisseurs (programmeur-concepteur d’IA) en est une des clés !
    • pour prévenir des risques liés à l’IA : Identifier les risques inhérents à l'IA et mettre en place des stratégies d’adoption de comportements et usages adaptés pour garantir une résilience face aux menaces émergentes. En particulier, évoquons des formations sur le management de l’attention, les techniques d’accroissement de notre réflexivité, le paramétrage des plateformes, la cyber malveillance...  
    • pour développer des compétences en IA dans la recherche et dans l'industrie
    • Soulignons "l’importance de développer les compétences émotionnelles des enfants, et des citoyens de manière plus large, afin qu’ils puissent naviguer et saisir les opportunités des altérités et des attachements numériques auxquels ils vont être confrontés, et qu’ils vont développer, notamment au regard du développement des systèmes d’IA générative" (Nicolas Chagny, Jean François Lucas, du think tank " Renaissance Numérique") .

 

  • des actions pour faire évoluer le système juridique et réglementaire, et ses outils de contrôle (*): 
    • en particulier, les actions devant les tribunaux pour créer une jurisprudence précisant l'applicabilité de nos lois actuelles(*)
    • pour un système juridique accompagné d’organismes chargés de contrôles, pour en particulier donner des outils pour la lutte contre la désinformation, la protection des droits de propriété intellectuelle,la proctection de l'environnement, l'emploi et le monde du travail 
    • pour rendre la réglementation proactive et pragmatique, dès que nécessaire, permettant de coconstruire un cadre à la fois sécurisé et favorable à l'innovation, à la recherche et au développement. 

 

  • des actions dans le domaine économique et de la recherche  pour orienter les investissements publics et privés sur la création et le soutien de systèmes français (comme l'IA Le Chat Mistral) ou européens, ceci pour des raisons géopolitiques, mais aussi pour disposer de type d'IA adaptée à nos sociétés démocratiques. Nous avons besoin de retrouver une souveraineté sur nos outils numériques pour mieux les concevoir et les contrôler. 

 

  • des actions dans le domaine social et de l’emploi pour accompagner le changement auprès des personnes actives perturbées par l'IA dans leurs entreprises ou administration, et  pour les 8 millions de personnes éloignées du numérique dans un contexte de numérisation du service publique.

 

Ces actions sont à mener en France, et en coordination avec l'Europe et les instances internationales. 

En mars 2024, la commission de l’intelligence artificielle remettait au Président de la République un rapport intitulé : « IA, notre ambition pour la France »

 

(*) Certains tirent la sonnette d’alarme sur la nécessité, non pas de produire de nouveaux textes « directives » ou « réglementation », mais de « se concentrer sur la mise en œuvre de textes de procédure et d'interprétation, afin de garantir une articulation efficace entre les grands textes adoptés ces dernières années, plutôt que sur l'ouverture de nouveaux chantiers législatifs. Cette recherche de cohérence devient une urgence : les conflits de compétences et les défis d’articulation risquent non seulement d'engendrer de l'inefficacité, mais aussi et surtout de l'injustice et de l’insécurité. » (communiqué de presse de l’association Renaissance Numérique du 12 novembre 2024 : Renaissance Numérique est un think tank indépendant dédié à la transformation numérique de la société. Il œuvre à éclairer les évolutions que cette transformation entraîne et à donner à chacun les clés de sa maîtrise).

 

-------- 

 

Pour "aller plus loin" , nous vous proposons de lire l'avis du CESE (Conseil Économique Social et Environnemental) de janvier 2025 :  "Pour une IA au service de l'intérêt général"  et de lire les nombreux articles parus depuis sur ce thème. 

 

contact@egalitenumerique.fr

12 rue du Moulin de Coudret
16140 Oradour

Par e-mail

Par courrier