📢 Nous devons tous comprendre
les enjeux du numérique
car nous sommes tous concernés individuellement et comme citoyen,
même si nous ne sommes pas à l'aise avec Internet.
contact@egalitenumerique.fr
12 rue du Moulin de Coudret
16140 Oradour
Par e-mail
Par courrier
12/11/2024
Après une brève introduction sur l’Intelligence Artificielle (prédictive, générative, « agent ») et des éléments de contexte de son utilisation, il est abordé la nécessité d’une IA responsable et d’une réglementation exante solide, adaptée à un marché en évolution et à ses produits. Puis une présentation rapide est faite des principaux régulateurs, comme l’Europe, mais aussi de nombreux autres acteurs puissants. Les principes d’une politique publique française ou/et européenne souhaitable sont évoqués. Enfin l’article fait un zoom sur les risques de l’IA sur le monde du travail et sur notre capacité individuelle à agir sur le monde, notre agentivité. En conclusion, il est souligné la nécessité d’une gouvernance forte de l’IA.
Pour quoi cet article pour non spécialiste ?
Ce document a pour objectif, en introduction, de décrire très rapidement ce qu’est l’IA, et de présenter succinctement quels débats récents sur ce thème, débats qui nous concernent tous comme particulier ou comme citoyen. Il n’a pas vocation à être un document de réflexion sur le sujet, mais plutôt une incitation à approfondir ce thème, en particulier avec une liste de références « pour aller plus loin ».
«… l’IA présente des risques. Le MIT en a d’ailleurs identifié plus de 700, répartis en 7 domaines et 23 sous-domaines. » (Irénée Régnauld, Mais où va le Web ?, 7 octobre 2024). Rappelons nous les mots de Marie Curie : « Rien dans la vie n’est à craindre, tout doit être compris. C’est maintenant le moment de comprendre davantage, afin de craindre moins ».
Quelques éléments de contexte de l’utilisation de l’IA
En préalable, rappelons l’état en France en matière de maîtrise du numérique et d'illectronisme. Certes, nous avons un contexte de croissance du l’usage du numérique (en 2009, 65% de la population se connectait au moins une fois par trimestre, et en 2022, le pourcentage est passé à près de 85% : (INSEE : https://www.insee.fr/fr/statistiques/2385835 ).
Cependant, beaucoup d’entre nous ne sont pas confortables avec Internet. 9 millions de français sont en situation d’illectronisme, sans compétences numériques essentielles. 1/3 des adultes renonce à réaliser des démarches administratives dématérialisées. 24% de la population ne sait pas obtenir de l’information sur internet. Mais ces millions parmi nous doivent, comme tout citoyen, être informés et sollicités en terme compréhensible lors de notre vie démocratique.
Evoquons aussi 3 conditions actuelles de fonctionnement de ces systèmes IA :
• Besoin de « data » (i.e. des données) stockées dans des systèmes nommés « big data »
👉 problématique de la protection des « données personnelles » de chacun d’entre nous, comme souligné dans de nombreux articles et sur le site www.cybermalvellance.gouv .
• Besoin de puissance informatique (« data center »)
👉 problématique environnementale. « le numérique représente aujourd’hui 3 à 4 % des émissions de gaz à effet de serre (GES) dans le monde et 2,5 % de l’empreinte carbone nationale… » (ARCEP : « L'empreinte environnementale du numérique »), et la croissance du secteur numérique ne peut qu’aggraver cette situation.
• Vulnérabilité des réseaux, dans un contexte géopolitique instable, pour transporter les informations fiables et vérifiées
👉vulnérabilité de l’Europe et des démocraties (voir le livre "les ingénieurs du chaos")
Ces 3 points ne sont pas abordés dans ce document.
Nous rentrons dans un contexte d’extension des usages, après ChatGPT (chatbot doté d’une intelligence artificielle qui peut générer des textes) : « Certains fournisseurs d’IA proposent de l’offrir gratuitement contre le renouvellement de leurs contrats premiums, d’autres la font payer … ». Citons le cas de Microsoft : « très peu des clients de Microsoft 365 semblent avoir opté pour l’option IA. Que le « Github copilot » de Microsoft semble coûter plus cher à l’entreprise que ce qu’il rapporte (alors qu’il est l’un des produits d’IA parmi les plus populaires et presque utile, bien qu’il semble générer beaucoup de bugs). En février 2024, Microsoft annonçait 1,3 million de comptes payants à « Github copilot » et 1,8 million en septembre… ».
L’IA qu’est-ce ?
Existe-t-il une définition de l’IA ?
Des applications fonctionnant avec une grande fiabilité ne donnent plus lieu à l‘appellation IA. C’est le cas avec les aspirateurs autonomes, l’autopilote des avions, le guidage de missile… Et sur vos outils numériques (smartphone, ordinateur…), vous devez expérimenter les filtres à spam, l’autocomplétion… . Cette fonctionnalité informatique « autocomplétion » permet à l'utilisateur de limiter la quantité d'informations qu'il saisit avec son clavier, en se voyant proposer un complément qui pourrait convenir à la chaîne de caractères qu'il a commencé à taper. De nombreux logiciels possèdent cette fonctionnalité : les éditeurs de texte prévus pour l'édition de code source, les traitements de texte, les interpréteurs de commandes ou encore les navigateurs web, ainsi que certains systèmes de saisie intuitive installés sur les téléphones mobiles.
L’IA n’a pas vraiment de définition fixe. Les types d’IA les plus citées sont l’IA prédictive, l’IA générative, et plus récemment l’IA agent.
L’IA Prédictive
Citons le systèmes d’information prédictive donnant des prévisions météo, prévision d’inondation, prévision de pannes de voiture (voir la publicité Renault), mais aussi dans le domaine du social (de l’emploi à la santé), en passant par le crime…. Ces modèles pour beaucoup restent englués dans leurs biais. l’une des raisons d’une si faible performance tient beaucoup au fait que très souvent, la donnée n’est ni disponible ni décisive. L’IA prédictive est très attirante parce qu’elle promet de nous aider à des décisions plus efficaces… Mais l’efficacité est bien plus relative qu’annoncée et surtout bien moins responsable. La prédiction oublie souvent de prendre en compte le comportement stratégique qui risque de la rendre moins efficace dans le temps.
L’IA Générative : l’intelligence artificielle mise à la portée du grand public ?
L’IA générative est une forme d’intelligence artificielle (IA) à partir de laquelle n’importe qui peut créer des contenus inédits de façon autonome. En réponse à des prompts (requêtes), les IA génératives sont capables de générer du texte, des images, des vidéos ou de la musique. Le succès d’applications telles que ChatGPT ou Midjourney a marqué l’ère de cette intelligence artificielle en libre service…
Cette IA présente le danger de l’hypertrucage (« Deepfake ») : L'« hypertrucage » est la contrefaçon numérique sophistiquée d'une image, d'un son ou d'une vidéo. L’OCDE et de nombreux organismes ont souligné le risque de désinformation et de manipulation de l’opinion. Nous revenons ci-dessous sur ce risque d’« hypertrucage » avec l’IA Agent.
L’ IA « Agent » : Logiciels qui peuvent agir, mener des tâches de façon autonome.
Après les robots conversationnels comme ChatGPT, et après les systèmes capables de « raisonner » , les hypothétiques futures IA capables d’« innover » ou de « faire le travail d’une organisation » sont annoncées.
Rappelons le match AlphaGo (un programme de go développé par Google DeepMind) et Lee Sedol (considéré comme le meilleur joueur du monde au milieu des années 2000) s'est tenu entre le 9 et le 15 mars 2016 à Séoul. AlphaGo a gagné toutes les parties sauf la quatrième. Ce match voit la victoire d'un programme face à un professionnel du plus haut niveau. Elon Musk est un des premiers investisseurs de DeepMind (Google DeepMind est une entreprise spécialisée dans l'intelligence artificielle), société qui essaie de combiner « les meilleures techniques de l'apprentissage automatique et des neurosciences des systèmes pour construire de puissants algorithmes d'apprentissage généraliste ».
Citons l’avis d’expert pour essayer de comprendre ce concept :
• Sam Altman, le fondateur d’OpenAI, qui a créé ChatGPT : « Nous y arriverons dans un futur pas trop distant », octobre 2024,
• le PDG de Google, Sundar Pichai : « Ce sont des « systèmes intelligents capables de raisonner, de planifier et de mémoriser, de “penser” plusieurs étapes à l’avance et de travailler dans plusieurs logiciels ou environnements, tout cela pour accomplir une tâche à votre place »,
• Le patron d’Anthropic, Dario Amodei, espère créer des IA capables de « mener des tâches de façon autonome, comme un employé intelligent le ferait, en demandant des clarifications si nécessaire ».
• Yann Le Cun, de Meta, imagine un futur où « toutes nos interactions avec le monde numérique passeraient par ce genre d’assistants IA ».
• Mais aussi des avis divergents comme celui de Hubert Guillaud « Les mythes de l’IA »
(https://danslesalgorithmes.net/2024/10/02/les-mythes-de-lia/)
« Les mythes de l’IA
• Le mythe du contrôle : croire que les systèmes sont plus fiables qu’ils ne sont
o Le mythe de la productivité : croire que ce sur quoi nous passons du temps peut être automatisé
o Le mythe du prompt : croire que l’utilisateur contrôle le système
• Le mythe de l’intelligence : croire que ces systèmes sont intelligents
o Le mythe de l’apprentissage : croire que ces systèmes apprennent comme nous
o Le mythe de la créativité : croire que les processus créatifs et les résultats créatifs sont la même chose
• Le mythe futuriste : faire croire que les problèmes sont résolus
o Le mythe de passage à l’échelle : faire croire qu’il suffit plus de données
o Le mythe du comportement émergent : faire croire que les IA peuvent devenir des machines agissantes dans de chaines de décisions défaillantes »
Yuval Noah Harari (voir son dernier essai « Nexus: Une brève histoire des réseaux d'information, de l’âge de pierre à l’IA ») évoque l'IA … "agent", dans la mesure où elle est capable de prendre des décisions par elle-même. A la différence d'un ordinateur qui ne fait qu'exécuter les demandes d'un être humain, l'IA "créée, invente de nouvelles idées, apprend par elle-même". C'est donc une faculté d'autonomie et de prise d'initiative qui la distingue de toutes les technologies du passé. Harari mobilise l'exemple des médias : "ceux-ci forment la politique, le débat humain. La décision de ce dont on va parler dépend d'un rédacteur en chef. Sur les plateformes, l'IA décide désormais quelle sera la prochaine vidéo en haut de votre fil d'actualité. Elle a même trouvé comment les gens pouvaient passer plus de temps sur les réseaux : c'est en attisant la haine que l'on fidélise un être humain car, de cette manière, il est plus engagé sur un thème".
🤔Ces différents types d’IA peuvent nous apporter des éléments positifs dans notre vie, mais aussi des dangers comme soulignés en introduction. De nombreux experts insistent donc sur la nécessité d’encadrer les usages de l’IA pour la rendre « responsable ».
Pour une IA Responsable
Exemples et mécanismes explicitant la notion de « responsabilité » de l’IA
Donnons quelques exemples d’IA posant problème. L’IA est utilisée dans la Technopolice, avec la mise en place de caméras qui signalent aux policiers municipaux en temps réel les rassemblements « suspects » ou caméras qui permettent la « filature automatisée d’individus » …Actuellement, les pouvoirs publics donnent la main au secteur privé pour promouvoir, tester des dispositifs dérogatoires à la loi actuelle en vertu d’un double principe : La nécessité d’une urgence ponctuelle et le souhait de ne pas entraver les industriels de la surveillance par des « carcans procéduraux ». Mais il faudra s’assurer que cette surveillance utile pour les délinquants ne vienne pas empêcher le droit de se réunir pour un citoyen. Un cadre réglementaire de ces usages doit être défini par la loi.
La reconnaissance faciale a aujourd’hui un taux d’erreur minuscule (0,08% selon le Nist). Mais les erreurs sont problématiques, notamment quand elles conduisent à des arrestations sans cause justifiable.
Mais, il existe des exemples ou l’IA a conduit à des résultats erronés. Un exemple très connu, comme souligné dans plusieurs articles de 2014, l’outil de prédiction de la grippe de Google le Google Flu Trend a surestimé l’épidémie de plus de 50% par rapport à la réalité. « Comme le note Time magazine qui relaie l'information, il s’agit ici d’un cas typique de “big data hubris (exemple d'arrogance du big data, NDLR). Ce n’est pas parce que des entreprises comme Google peuvent amasser un nombre incroyable d’informations autour du monde qu’elles sont capables de les analyser correctement afin de produire une image nette de ce qui se passe (dans le monde).” Nous devons donc rester vigilants et critiques le cas échéant sur l’IA.
La responsabilité du programmeur-concepteur et celle du choix des données
Larousse donne la définition du mot algorithme : « Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. ». Les algorithmes sont constitués de 2 éléments
• Un choix des données extraites de la vie et des réalités humaines, organisées et sélectionnées par le programmeur-concepteur de l’outil IA
• un choix de séquence d’opération
Ces choix (données et séquences d’opération) peuvent refléter des valeurs morales des professionnels de la programmation comme les principaux acteurs de leur construction.
Toutes ces étapes constituent en réalité des choix éthiques
Pour une IA Responsable, besoin d’une réglementation
« Les discours autour de l’IA produisent des mythes qui influencent notre compréhension de ce qu’elle est, produisant une perception confuse de leur réalité » (Hubert Guillaud 02/10/2024 cité dans l'article ci-dessus.
Mais Il existe une forte nécessité de renforcer la lutte contre la désinformation (en particulier grâce au « hypertrucage »), et la protection des droits de propriété intellectuelle et plus généralement l’encadrement de l’IA générative et l’IA Agent. Cette réglementation devrait se faire, au niveau mondial, et au niveau Européen. Nous avons besoin d’une réglementation exante solide, adaptée à un marché en évolution et à ses produits
Une IA réglementée? Par qui ?
Un rappel de l’action de l’Europe dans le numérique
• 1995 : Adoption de la directive sur les données personnelles
• 2000 : Adoption de la directive sur le commerce électronique
qui règlement les transactions en ligne et l’e-commerce dans l’Europe
• 2004-13 : Régulation du numérique par la concurrence.
2004 : 1ère amende de Microsoft (497 millions €) pour
« abus de position dominante »
2009 : Amende d’INTEL de 1,06 milliards € pour
« abus de position dominante » sur le marché des microprocesseurs
2013 : 2ème amende de Microsoft (561millions €) pour
avoir imposé son navigateur internet Explorer
• 2016 : Adoption du règlement RGPD …
• 2014-2024 : Législation comme les réglements « DMA » et DSA »
• Le 6 septembre 2023 : Identification par l’Europe de « plateformes contrôleurs d’accès »
• 2024 : « AI ACT (Artificial Intelligence Act)
Récapitulatif de principaux textes européens réglementant le numérique
RGPD 2016 Règlement général sur le protection des données personnelles
DSA 2022 Digital Service Act qui encadre les contenus
DMA 2024 Digital Market Act qui encadre la concurrence
RIA 2024 communément appelé AI Act (Artificial Intelligence Act) qui encadre les applications de l’IA
Pour ce texte AI ACt, vous trouverez un résumé sur le site de l'Europe :
https://artificialintelligenceact.eu/fr/high-level-summary/
Soulignons les délais longs de mise en application des textes de l’Union Européenne ! Comme citoyen, nous devons exiger de nos politiques d’avancer rapidement sur la nécessaire réglementation de l’IA. Le Règlement européen sur l’Intelligence Artificielle (RIA) a été publié au Journal Officiel le 12 juillet 2024. Il entre en vigueur vingt jours après, soit le 1er août 2024. L’entrée en application se fera de façon échelonnée :
Gouvernance de l’IA partagée par de nombreux acteurs
De nombreux acteurs sont impliqués : l’industrie, les Etats et organismes internationaux, associations, universités…
Industries : Un petit nombre de sociétés, liées en trés grande partie aux plateformes évoquées ci-dessus, exercent un contrôle sur les ressources clefs comme les données, la puissance de calcul, l’expertise. Ces sociétés pèsent lourd dans la gouvernance de l’IA par le sponsoring de la recherche dans les outils hyper-techniques, et la création de consensus autour de concepts alignés avec leurs intérêts “business”.
Etats et organismes internationaux : Citons l’OECD, l’UNESCO, le G20, l’ONU..
• OECD Recommendation on AI, https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449
• UNESCO's Recommendation onthe Ethics of AI, 2021 : « Recommandation sur l’éthique de l’intelligence artificielle » qui est sensée aider chaque gouvernement à mettre en œuvre une politique conforme à cet objectif
https://unesdoc.unesco.org/ark:/48223/pf0000381137_fre
• the G20 AI Principles https://wp.oecd.ai/app/uploads/2021/06/G20-AI-Principles.pdf
• Citons aussi l’action de l’ONU pour favoriser la réflexivité et notre capacité à prendre des décisions conformes aux objectifs que nous nous fixons, par exemple le programme #marquonsunepause de l’ONU. Dans le cadre de l’initiative « Vérifié », l’ONU a lancé la campagne #MarquonsUnePause qui encourage les citoyens à réfléchir avant de partager une information sur les réseaux sociaux. « Vérifié »( Verified), une initiative des Nations Unies lancée en mai 2020 pour communiquer des informations sanitaires accessibles et scientifiquement fondées dans des formats convaincants et partager des histoires de solidarité mondiale autour de la COVID-19.
Citons aussi les universités, les organismes de normes comme l’AFNOR ou « International Organization for Standardization (ISO) »…
Le paysage de la gouvernance de l’IA est complexe, et l’inclusion de la société civile varie considérablement d’un pays à l’autre. Les obstacles à la participation de la société civile comprennent un accès limité à certains lieux de décision, à des contraintes d’information et de compréhension de ce domaine complexe accompagnées de contraintes financières (le numérique représente un budget important pour beaucoup de ménages), et la nécessité de bâtir des organismes qui doivent être des courroies de transmission (comme des associations), dotés de sites internet facilement accessibles…) pour faire entendre leur voix auprés des décideurs. Malgré ces défis, la société civile demeure un intermédiaire clé, pour défendre l’intérêt public dans la gouvernance de l’IA.
Pour la gouvernance du numérique, voir notre article :
Les principes d’une politique publique française ou/et européenne
Quatre principes semblent nécessaires
Certains tirent la sonnette d’alarme sur la nécessité, non pas de produire de nouveaux textes « directives » ou « réglementation », mais de « se concentrer sur la mise en œuvre de textes de procédure et d'interprétation, afin de garantir une articulation efficace entre les grands textes adoptés ces dernières années, plutôt que sur l'ouverture de nouveaux chantiers législatifs. Cette recherche de cohérence devient une urgence : les conflits de compétences et les défis d’articulation risquent non seulement d'engendrer de l'inefficacité, mais aussi et surtout de l'injustice et de l’insécurité. » (communiqué de presse de l’association Renaissance Numérique du 12 novembre 2024 : Renaissance Numérique est un think tank indépendant dédié à la transformation numérique de la société. Il œuvre à éclairer les évolutions que cette transformation entraîne et à donner à chacun les clés de sa maîtrise. ).
Zoom sur les risques sur le monde du travail et notre agentivité
Risques pour le monde du travail
L’IA peut aider à acquérir des savoirs, et des savoir-faires dans certains domaines, mais pas des savoir-êtres que seule la vie collective, en particulier celle au travail, apporte. Nombreuses études (OIT, Roland Berger, McKinsey, Forbes…) abordent le problème….
Il existerait aujourd’hui un courant de pensée selon lequel
Dans une enquête qualitative menée en 2023 analysant 96 cas d’application d’implémentation de l’IA au sein de différents métiers dans huit pays de l’OCDE, l’économiste Anna Milanez montre que ses effets sur le travail sont nuancés. Les effets sur les travailleurs sont positifs ou négatifs selon les situations (gain de temps ou de confort, accroissement de la surveillance des salariés, solitude, surcharge cognitive, etc.).
Mais certains sont plus pessimistes. « Quelque 800 000 emplois pourraient être détruits par l’IA générative, en France, au tournant de la décennie », selon une étude du cabinet Roland Berger..
Risque sur notre capacité individuelle à agir sur le monde, notre agentivité
Le livre « Pour une nouvelle culture de l’attention » (Odile Jacob avril 2024) détaille précisément les éléments conduisant à cette situation de risque, et propose dans une 2ème partie de « reprendre le contrôle de notre attention » un plan d’actions.
L’agentivité correspond à la capacité à agir sur le monde, donc à produire des effets causaux sur lui par nos propres actions…Les interfaces Internet pilotées par l‘IA interviennent sur ces 2 points
:
1. Le « contrôle exécutif » de nos actions et notre attention au monde (numérique) qui incluent diverses fonctions et capacités de :
- création et de maintien de l’information la plus pertinente pour arriver à l’objectif,
- maintien de l’attention sur ce qu’on veut atteindre »
- mise en œuvre des processus d’inhibition des autres comportements plus familiers, mais inappropriés pour le contexte actuel … ».
2. Le manque de connaissance de ce que font réellement les algorithmes qui sont censés nous apporter de l’aide à la décision
L’IA utilisée dans les interfaces des réseaux sociaux, des sites marchands, des sites ou blogs à vue politique… agit en grande partie sur notre agentivité par la fatigue de l’attention générée sur internet.
Le poison de l'IA utilisée dans les interfaces des réseaux sociaux, sites marchands, sites ou blogs à vue politique… agit sur notre agentivité par exacerbation des techniques de capture et d’exploitation de notre attention par l’hyperpersonnalisation des messages et l’optimisation des mécanismes émotionnels. Les marketeurs parlent « de nous informer et former », nous les usagers d’internet, comprenez de nous « mettre en condition d’acheter » leurs produits par internet et/ou former nos opinions, et souvent, pour atteindre leur objectif, de nous abrutir ou nous rendre « accrochés ». Nir Eyal, un des anciens étudiants de Fogg [Brian Jeffrey Fogg, directeur du Laboratoire des technologies persuasives de Standford], qui a ensuite conçu pendant plusieurs années des publicités placées sur Facebook, est l’auteur de ‘Hooked : How to build habit-forming products’ (‘Accroché : comment construire des produits addictifs’) ».
« La façon dont les réseaux sociaux et les applications numériques capturent notre attention, consiste à assimiler celle-ci aux stratégies des casinos, de l’industrie du tabac, et encore de l’industrie alimentaire avec les aliments sucrés » . « Serge Tisseron résume les enjeux de ces nouvelles formes de « conversations personnalisées avec chacun d’entre nous » : « l’attention morcelée suscités aujourd’hui chez les utilisateurs du Net, va […] se substituer une relation nouvelle de l’homme à ces technologies numériques : de longue conversation suscitant un éventail d’émotions large et varié, nourri par l’illusion d’une présence réelle, attentive et chaleureuse…. Différents risques ont d’ores et déjà pu être identifiés et analysées, notamment par la CNIL (Avis sur les assistant vocaux 2021 » (Extrait livre « Pour une nouvelle culture de l’attention » Odile Jacob avril 2024).
Conclusion
Au niveau national, européen et mondial, nous devons avoir conscience qu’Il faut impérativement renforcer la lutte contre la désinformation, et la protection des droits de propriété intellectuelle et plus généralement l’encadrement de l’IA générative et l’IA Agent. Et que ce monde numérique est un enjeu important de géopolitique dans les circonstances actuelles des relations internationales fragiles.
Pour ceux d’entre nous qui ne sont pas à l’aise avec le numérique, et pour ceux qui vont avoir leur emploi détruit pas cette nouvelle technologie IA, l’Etat doit renforcer son action pour ne pas laisser une part importante de nos concitoyens sur le bord du chemin de cette technologie en pleine croissance.
A notre niveau individuel, nous devons reprendre le contrôle de notre attention, et notre capacité à agir devant ce monde numérique envahissant et souvent abrutissant, pour assurer entre autres notre rôle de citoyen éclairé.
Et à ce niveau de citoyen, nous devons tous exiger de nos politiques, en s’appuyant sur des courroies de transmission comme des associations ou partis politiques, qu’ils s’engagent à agir rapidement sur une gouvernance du Numérique qui défend l’intérêt général. Certains discours ont mis en avant des « promesses, prophéties, mythes, prédictions » qui se sédimentent en idées politiques, en particulier la destruction de la régulation, dans une représentation d’un futur si lointain qu’il permet de ne plus être fixé dans un cadre politique normé. Il me semble au contraire, comme beaucoup, qu’il y a un impératif absolu d’assurer une gouvernance forte et la mise en place d’une réglementation de l’IA pour son utilisation au bénéfice de l’intérêt général.
Pour aller plus loin: Quelques sites et livres
qui nous ont paru intéressant
Cette liste n'a pas la prétention d'être exhaustive
• www.Dansleslagorythmes.net
• https://www.renaissancenumerique.org/
• https://maisouvaleweb.fr/
• https://medialab.sciencespo.fr/activites/shaping-ai
• https://lesbases.anct.gouv.fr/
• https://www.cnil.fr/fr/intelligence-artificielle/quelques-ressources-utiles-et-accessibles-tous-pour-comprendre-lintelligence-artificielle-ia
• https://www.arcep.fr/la-regulation/grands-dossiers-thematiques-transverses/lempreinte-environnementale-du-numerique.html
• https://www.radiofrance.fr/societe/tech-web/intelligence-artificielle
• https://www.forbes.fr/management/les-huit-plus-grandes-tendances-de-lavenir-du-travail-en-2024/
• Le livre du journaliste Thibault Prévost, Les prophètes de l’IA (Lux éditeur, 2024)
• le livre roman MANIAC du Chilien Benjamin Labatut se déploie de 1933 à 2019 autour de trois personnages historiques : le physicien autrichien Paul Ehrenfest, le mathématicien américain John von Neumann et le champion de go sud-coréen Lee Sedol. S'il s'agit d'un triptyque, c'est parce que le livre relate l'avènement d'un nouveau Dieu: l'Intelligence Artificielle.
• Le livre « Pour une nouvelle culture de l’attention » (Stefana Broadbent, Florian Forestier, Mehdi Khamassi, Célia Zolynski) Odile Jacob
• …