L’intelligence artificielle (IA) va-t-elle nous aider à résoudre les grands défis de notre époque1 ? Ou bien est-ce plutôt une nouvelle fuite en avant technosolutionniste qui entraînera plus de dommages qu’elle n’apportera de solutions2 ? Eudia propose une brève prise de recul sous le prisme du bonheur durable et partagé.
🖥 L’IA peut être vue comme une machine capable d’imiter des tâches cognitives humaines, telles que le raisonnement, la planification et la créativité3. Dans les faits, il s’agit d’une boîte noire numérique, qui s’améliore par un apprentissage en partie autonome et qui cherche à accomplir de mieux en mieux une tâche qu’on lui a donnée. Initiée dans les années 50 par le mathématicien Alan Turing qui se demandait si un ordinateur pourrait un jour penser ou imiter un humain à s’y méprendre, cette révolution technologique a été permise grâce à l’évolution de la puissance de calcul, du big data et du machine learning.
🦾 L’IA réalise certaines tâches à la place des humains de façon plus juste, plus rapide et/ou autonome. Ses applications et ses potentiels sont innombrables : optimisation des systèmes de production et de transport, modélisation de scenarii complexes, aide à la gestion de réseaux, recueil d’informations, analyse de données, etc.4 Employée fréquemment par le grand public depuis la sortie de ChatGPT en 2022, l’IA générative5 crée des données sous forme de textes, d’images ou de sons. Du domaine de la santé humaine à celui de l’énergie, en passant par les ceux des ODD6, l’IA peut nous grandement servir.
Mais pour juger de sa pertinence globale, il faut aussi en évaluer les risques et les impacts négatifs7. Et ces derniers sont également innombrables et ne sont pas toujours évidents à déceler.
Sans même parler du risque existentiel lié à une superintelligence8 qui deviendrait incontrôlable et qui chercherait à nous nuire comme dans une dystopie de Terminator ou de Matrix, Eudia propose un classement des risques et des impacts délétères de l’IA en 3 thèmes9 :
1️⃣⚠️🌿 Surexploitation des ressources naturelles : au-delà des impacts considérables du numérique sur l’environnement10 (entre autres à cause des émissions de gaz à effet de serre, des pollutions par les mines et par les déchets), l’IA entraîne une explosion de la consommation énergétique11 et donc en parallèle des ressources naturelles comme l’eau12.
2️⃣⚠️🧠 Appauvrissement de nos capacités cognitives : en plus des risques cognitifs dus au numérique et à l’écranosphère13, de la précarisation de travailleurs servant à entraîner les IA dans des conditions abrutissantes14, une mauvaise utilisation de l’IA peut mener à une perte de stimulation de l’imagination, de la réflexion, de la mémorisation, à une perte d’autonomie intellectuelle, de discernement, d’esprit critique15, à une perturbation des émotions basées sur l’illusion de l’apparence humaine de l’IA, en contradiction avec la grande cause de la santé mentale16.
3️⃣⚠️⛓ Dominations sociales et militaires : dans cette catégorie les bouleversements sociaux et les dérives totalitaires sont largement documentés17 : uniformisation du marché de l’emploi, accroissement des inégalités découlant d’un contrôle différencié des outils de l’IA18, maintien de biais sociaux, culturels, raciaux favorisant les discriminations, menaces sur la vie privée et la confidentialité, érosion de la diversité culturelle à cause du choix des sources d’entraînement, atteinte aux droits d’auteur, atteinte à l’intégrité de l’information, développement de la désinformation et des manipulations par la communication19, facilitation de la surveillance de masse et fragilisation des démocatries20, accroissement des pouvoirs militaires et des armes autonomes, rupture des règles du droit de la guerre21.
La course à l’IA alerte et questionne au sujet de son encadrement éthique, de sa régulation et de sa finalité.22 Or soutenir la vérité scientifique23, développer les compétences humaines24, rechercher l’épanouissement individuel, se reconnecter à la nature, éviter un accroissement supplémentaire des inégalités25, préserver la paix, protéger les ressources naturelles sont indispensables à l’orientation vers un bonheur durable et partagé. Le chemin que nous donnons actuellement à l’IA semble très loin de ces besoins. De plus, l’IA est un outil non objectif qui est guidé par une orientation humaine26 donnée par ses créateurs, ce qui pose la question des intérêts et des finalités inaccessibles dans ces boîtes noires.
🧭 Pour Eudia, l’IA n’est donc ni la priorité, ni la solution miracle, ni la boussole, c’est un super outil de plus dans une caisse à outils déjà bien remplie mais trop peu souvent utilisée à bon escient. Afin que cet outil nous serve réellement au lieu de nous asservir, une large sensibilisation de la population et une réglementation forte semblent indispensables pour donner des règles éthiques claires et limiter l’utilisation à des cas bien particuliers. Chacun à titre individuel peut déjà se fixer son cadre propre, en attendant un encadrement national et international plus strict4.
1 Comme les ODD : https://phare-eudia.org/2024/02/08/quelles-contributions-des-entreprises-aux-odd/.
2 Notamment avec des effets rebond : https://phare-eudia.org/2023/03/10/du-sens-pour-eviter-le-rebond/.
3 De nombreuses définitions existent, voici un article du CNIL sur le sujet qui présente entre autres la définition donnée par le Parlement européen : https://www.cnil.fr/fr/intelligence-artificielle/intelligence-artificielle-de-quoi-parle-t-on.
4 Quelques applications données par les Nations Unies : https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_fr.pdf.
5 Sur l’IA générative : https://bigmedia.bpifrance.fr/news/intelligence-artificielle-generative-de-quoi-parle-t.
6 Utilisation de l’IA pour contribuer aux Objectifs du Développement Durable : https://ai-for-sdgs.academy/.
7 D’ailleurs lorsqu’Eudia a demande à ChatGPT le 27/02/25 « Quels sont les dangers de l’IA comme ChatGPT ? », la machine donne une réponse très auto-critique en indiquant 10 « dangers potentiels associés à des technologies comme ChatGPT » : Mésinformation et manipulation, Biais et discrimination, Surveillance de masse, Impact sur l’emploi, Manipulation de l’émotion humaine, Manque de responsabilité, Manipulation des marchés et fraude, Érosion de l’autonomie humaine, Problèmes de confidentialité, Évolution incontrôlée de l’IA. Notons que la réponse de ChatGPT est développée avec des exemples concrets dans chacun des 10 dangers identifiés. Notons également que la réponse de ChatGPT est largement incomplète notamment sur les dangers environnementaux, montrant la limite d’un tel outil dans une analyse systémique et éthique.
8 Le CAIS (Center for AI Safety), organisation à but non lucratif basée à San Francisco qui promeut la sécurité dans le développement et le déploiement de l’IA, dit : « L’atténuation du risque d’extinction [de l’espèce humaine] lié à l’IA devrait être une priorité mondiale au même titre que d’autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires » : https://www.safe.ai/.
8′ Pour une vidéo bien faite sur le sujet « L’horreur existentielle de l’usine à trombones » : https://www.youtube.com/watch?v=ZP7T6WAK3Ow.
9 Ces 3 thèmes collent assez bien aux 3 univers de la philosophie H décrite dans l’essai « En quête d’un bonheur durable et partagé » aux éditions de la Chronique Sociale : la Terre, la Personne, la Société.
10 Plus d’informations : https://phare-eudia.org/2023/01/09/numerique-ecologique-un-oxymore/.
11 Une requête sur l’IA générative demanderait 10 fois plus d’énergie qu’une requête sur un moteur de recherche classique comme Google selon l’IAE. D’autres éléments sur : https://www.polytechnique-insights.com/tribunes/energie/ia-generative-la-consommation-energetique-explose/.
11′ Microsoft s’est très récemment octroyé la production électrique d’une centrale nucléaire dans sa course à l’intelligence artificielle : https://www.latribune.fr/climat/energie-environnement/la-centrale-nucleaire-de-three-mile-island-renait-pour-microsoft-1006895.html.
12 Lien direct entre production-consommation énergétique et besoin de ressources en eau : https://phare-eudia.org/2024/12/13/limportance-du-nexus-eau-energie-alimentation/.
12′ La consommation d’eau a ainsi augmenté de 20 % en 2022 chez Google et de 34% chez Microsoft propriétaire à 75 % d’OpenAI l’entreprise derrière ChatGPT : https://english.elpais.com/technology/2023-11-15/artificial-intelligence-guzzles-billions-of-liters-of-water.html.
13 Par exemple avec les réseaux sociaux : https://phare-eudia.org/2024/07/03/depasser-lentre-soi-des-reseaux-sociaux/.
14 Plus d’informations dans cet article de l’Organisation internationale du travail : https://www.ilo.org/fr/resource/article/lillusion-de-lintelligence-artificielle-comment-les-travailleurs-invisibles.
15 Par exemple dans l’éducation, l’emploi de l’IA relève d’un vrai défi pour qu’elle ne contribue pas à une faillite de la pensée, pour ne pas faire perdre le goût de l’effort intellectuel au profit du goût de confort. L’UNESCO travaille sur le sujet en donnant des recommandations comme le seuil d’âge à 13 ans pour l’emploi de l’IA (voir leur guide de l’IA dans l’éducation) : https://www.unesco.org/fr/articles/utilisation-de-lia-dans-leducation-decider-de-lavenir-que-nous-voulons.
16 Plus d’informations sur la santé mentale : https://phare-eudia.org/2024/11/15/la-grande-cause-de-la-sante-mentale/.
17 Voir par exemple les références 4, 7, 8, 22.
18 Voir par exemple l’ouvrage du géopolitologue Pascal Boniface « Géopolitique de l’intelligence artificielle : comment la révolution numérique va bouleverser nos sociétés » aux éditions Eyrolles : https://www.eyrolles.com/Entreprise/Livre/geopolitique-de-l-intelligence-artificielle-9782416000553/.
19 Plus d’informations : https://phare-eudia.org/2024/11/08/le-pouvoir-utile-ou-dangereux-de-la-communication/.
20 Voir par exemple l’ouvrage de la sociologue et professeure émérite à Harvard Shoshana Zuboff « L’Âge du capitalisme de surveillance » aux éditions Zulma : https://www.zulma.fr/livre/lage-du-capitalisme-de-surveillance/.
21 Plus d’informations : https://www.revue-etudes.com/article/les-robots-tueurs/26778.
22 Plusieurs centres de sécurité sur l’IA existent pour œuvrer sur ce point comme le CAIS (voir référence 6) et le Centre pour la sécurité pour l’IA en France : https://www.securite-ia.fr/panorama.
23 Pour plus d’informations : https://phare-eudia.org/2025/01/17/sur-la-verite-scientifique/.
24 Pour plus d’informations : https://phare-eudia.org/2024/08/08/les-objectifs-du-developpement-interieur/.
25 Pour plus d’informations : https://phare-eudia.org/2024/09/26/reduction-des-inegalites-catalyseur-dun-futur-desirable/.
26 Voir par exemple l’ouvrage de la spécialiste Kate Crawford « Contre-atlas de l’intelligence artificielle » aux éditions Zulma : https://www.zulma.fr/livre/contre-atlas-de-lintelligence-artificielle/.
Crédit photo : Gabriele Malaspina sur Unsplash.



Répondre à Une paix jamais acquise… – Phare Eudia Annuler la réponse.