📢 Nous devons tous comprendre les enjeux du numérique et de l'intelligence artificielle (IA)
car nous sommes tous concernés individuellement et comme citoyen,
même si nous ne sommes pas à l'aise avec Internet.
Ce site a pour objectif de donner quelques pistes de réflexions sur les enjeux et risques liés à cette technologie
27/09/2025
Cet article donne des éléments de réflexion sur la "responsabilité de l'IA". Nous constatons qu'Il existe une forte nécessité de renforcer la lutte contre la désinformation (en particulier grâce au « hypertrucage »), et la protection des droits de propriété intellectuelle et plus généralement l’encadrement de l’IA générative et l’IA Agent. Certains pays, organisations, individus, ont des attitudes de pyromanes sur les plateformes dans le but de rendre nos sociétés démocratiques ingouvernables. Cette réglementation devrait se faire, au niveau mondial, et au niveau Européen.
Nous avons besoin d’une réglementation exante solide, adaptée à un marché en évolution et à ses produits.
Ci-dessous quelques exemples d’IA dont l'usage peut poser problème.
Nous devons donc rester vigilants et critiques le cas échéant sur certains systèmes IA, comme le prévoit l'IA Act de l'Europe.
Responsabilités lièes au choix de l'algorithme et aux données
La responsabilité du propriétaire-concepteur-programmeur et celle du choix des données
Larousse donne la définition du mot algorithme : « Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. ». Les algorithmes sont constitués de 2 éléments :
• Un choix des données extraites de la vie et des réalités humaines, organisées et sélectionnées par le programmeur-concepteur de l’outil IA. La représentation de la réalité sous forme de données numériques peut nous conduire à tort à faire passer les données pour des ‘’faits’’ en faisant oublier que les ‘’faits’’ sont toujours produits, et que les données ne traduisent jamais que les ‘’effets’’ d’un production souvent faite par des hommes avec des rapports de force et des phénomènes de domination. « Les problèmes de qualité des données sont inhérents au fonctionnement de l’IA et n’ont pas de correctifs. » (d’après https://danslesalgorithmes.net/ de janvier 2025)
• un choix de séquence d’opération (du "modèle algorithmique") : Les interventions et les réglages de modération des modèles devraient être accessibles, car ils peuvent « représenter des jugements sociaux et moraux plutôt que de simples jugements techniques ». Si un chatbot ne dit rien de ce qu’il s’est passé sur la place Tiananmen en 1989, nous devons pouvoir comprendre pourquoi, défend Zittrain. « Ceux qui construisent des modèles ne peuvent pas être les arbitres silencieux de la vérité des modèles. » (d’après https://danslesalgorithmes.net/ de janvier 2025).
👉Ces choix (données et séquences d’opération) peuvent refléter des valeurs morales des professionnels de la programmation comme les principaux acteurs de leur construction. --> Toutes ces étapes constituent en réalité des choix éthiques.
Responsabilité du marketing autour d'un système d'IA
Engouement, battage médiatique ou buzz médiatique (« hype ») autour d'IA toxique
Pour aller plus loin sur ce thème lire l’article de Hubert Guillaud du 6 sep 25 sur l’escroquerie de l’IA (« The IA con » HarperCollins, 2025 non traduit).
Rappelons qu’aujourd’hui, une partie des gens sur la planète n’ont pas besoin d’IA, et le développement d’outils d’automatisation de masse n’est pas toujours socialement désirable.
Il existe des systèmes IA mis sur la marché dans le cadre d'une volonté de créer un engouement suite à un battage ou buzz médiatique ("hype").
Ces buzz sont souvent dus à des visions apocalyptiques :
Ces extrêmistes avec vision apocalyptique devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents. Leurs visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety.
Soulignons le fait que les effets probables du développement de certains systèmes d’IA toxiques sont de
plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous».
La mesure de l'engouement pour ces systèmes IA :
Le journal "Les Echos" du 25 septembre 2025 affiche un article au titre explicite "Les préados deviennent gagas d'IA" qui cite ce chiffre : "22% des préados utilisent un chatbot plusieurs fois par jour" . Autre exemple : L’agent conversationnel ChatGPT d'OpenAI, avec ses 700 millions d’usagers, reçoit chaque jour 2,6 milliards de requêtes.
👉 Pour résister à l’engouement de ces systèmes d’IA toxiques, nous devons avoir une volonté politique pour poser des questions sur chaque système qui se déploie.
👉 En exigeant des réponses à ces questions, nos dirigeants doivent mettre en place des politiques pour développer les systèmes qui soient socialement bénéfiques à tous, et interdire (ou limiter) les systèmes IA toxiques pour nos sociétés et démocraties.
--------
Pour "aller plus loin" , nous vous proposons de lire l'avis du CESE (Conseil Économique Social et Environnemental) de janvier 2025 : "Pour une IA au service de l'intérêt général"
contact@egalitenumerique.fr
12 rue du Moulin de Coudret
16140 Oradour
Par e-mail
Par courrier