

Intelligence artificielle
*ce texte a été rédigé avec l’aide de Microsoft Copilot
L’IBEFE du Brabant wallon a lancé en septembre 2025 un nouveau cycle de deux conférences en ligne consacré à l’Intelligence Artificielle. Ce mini-cycle a pour objectif de mettre en lumière les impacts de l’IA sur le monde du travail et sur les relations humaines, en adoptant une perspective rarement explorée dans les débats publics.
La deuxième conférence qui clôture ce cycle » a exploré notre relation à la machine et ses impacts sur la relation à autrui. Louis de Diesbach, ex-consultant chez BCG et doctorant en éthique des technologies, a proposé une réflexion philosophique et pratique sur l’intelligence artificielle (IA), ses fondements, ses enjeux éthiques et ses conséquences sociétales.
L’IA n’est pas une invention récente. Le terme « Artificial Intelligence » apparaît en 1955 lors du séminaire de Dartmouth, sous le nom de « 10-man study of artificial intelligence » [i]. Ce projet réunit dix chercheurs nord-américains, dont John McCarthy, Claude Shannon, Marvin Minsky et Nathaniel Rochester, figures majeures des mathématiques et de l’informatique.
Ce qui change aujourd’hui, c’est la démocratisation depuis le lancement de ChatGPT en 2022. L’IA sort des laboratoires et devient accessible à tous, soulevant des questions inédites sur nos valeurs, nos comportements et nos relations. On observe une capacité rapide à faire confiance à la machine, et même à en « tomber amoureux » et donc un manque de prise de recul.
« La meilleure façon de se représenter un LLM est d’imaginer un perroquet stochastique »
L’IA repose sur un triptyque : algorithmes, données, puissance de calcul. Les modèles de langage (LLM) fonctionnent comme des « perroquets stochastiques » : ils prédisent le mot suivant basé sur un corpus d'entraînement auquel il a eu accès. Il s’agit de quelque chose qui est aléatoire mais prévisible statistiquement. La qualité des données est donc cruciale : « Garbage in, garbage out ». Or, ces données sont souvent biaisées ou protégées par le droit d’auteur, soulevant des questions de propriété et de confidentialité.
Enfin, l’impact environnemental est considérable : l’explosion des data centers illustre le coût énergétique de cette course à la performance.
L’éthique ne concerne pas uniquement les individus : elle s’applique aussi aux organisations. Les valeurs d’une entreprise ou d’une institution influencent les modèles qu’elle choisit de développer ou d’adopter. Ce sont nos choix sociétaux et nos valeurs qui reflètent la façon dont ceux-ci vont être développés.
L’éthique de l’IA interroge les arbitrages qui orientent les algorithmes : rapidité ou précision, performance ou diversité ? La technologie n’est jamais neutre : elle modifie nos pratiques, induit des effets imprévus, véhicule la valeur d’efficacité et dépend des financements. Aujourd’hui, le monde est déjà transformé par la technologie.
Pour encadrer ces enjeux, la notion d’« IA de confiance » repose sur six principes : responsabilité, intervention humaine, transparence, justice et équité, sécurité et respect de la vie privée, impacts sociétaux (par exemple l’ultra polarisation des opinions, disparition de la nuance dans les propos exprimés…) et environnementaux (explosion de la demande en électricité).
Mais les biais restent un défi majeur. Aucun choix est neutre dans la création de l’algorithme. L’exemple d’Amazon illustre ce risque : son algorithme de tri des CV a reproduit des discriminations sexistes en s’appuyant sur des données historiques. De même, les générateurs d’images associent souvent « médecin à succès » à un homme blanc.
L’IA conversationnelle introduit une nouvelle forme d’interaction : parler à la machine comme à un humain. L’expression « Hello ChatGPT » illustre cette anthropomorphisation. Une étude du Max Planck Institute [ii] montre que nos échanges avec les IA modifient notre vocabulaire et nos structures de phrase, entraînant une homogénéisation du langage. Le risque serait également davantage de solitude et un manque d’interactions humaines.
Au-delà du langage, ces interactions façonnent nos attentes : disponibilité immédiate, réactivité, voire normalisation de comportements inédits, comme la violence verbale pour obtenir des réponses optimales.
De nombreux métiers seront impactés par l’IA. L’éducation est l’un des domaines les plus concernés par l’IA. Deux pistes de réflexion se dégagent :
Des modules spécifiques devraient être intégrés dans les programmes :
Ces modules ne doivent pas être considérés comme accessoires : ils sont essentiels pour préparer les étudiants, les enseignants et les citoyens à évoluer dans un environnement où l’IA est omniprésente.
« Je me demande ce que font les hommes de tout ce temps qu'ils gagnent » - Simone de Beauvoir
La conférence s’est terminée sur une interrogation qui dépasse la technique pour toucher à l’essentiel : que faisons-nous du temps que nous gagnons grâce à la technologie ? Simone de Beauvoir écrivait : « Je me demande ce que font les hommes de tout ce temps qu’ils gagnent ». Cette question résonne particulièrement à l’heure où l’IA promet des gains de productivité et une automatisation croissante. L’IA n’est pas une fatalité : elle est un choix. Ce choix engage nos pratiques professionnelles, nos modèles éducatifs et nos valeurs collectives.
Il ne s’agit pas seulement d’intégrer des outils, mais de réfléchir à ce qu’ils transforment : nos relations, notre langage, notre rapport au savoir et à la vérité. La technologie peut libérer du temps, mais elle ne dit pas comment l’utiliser. Ce « comment » relève de la responsabilité humaine, individuelle et collective. Il est essentiel d’introduire un réel débat politique au niveau européen.
En définitive, la question n’est pas de savoir si l’IA va s’imposer – elle est déjà là –, mais comment nous allons l’apprivoiser. Pour renforcer nos liens plutôt que les affaiblir ? Pour enrichir la diversité plutôt que l’uniformiser ? Pour soutenir la créativité plutôt que la standardiser ? Ces choix ne sont pas techniques : ils sont éthiques, sociaux et politiques. Et c’est à nous qu’il revient de les faire en rappelant la force des individus.
• Références :
[i] McCarthy, John, Marvin L. Minsky, Nathaniel Rochester, et Claude E. Shannon. « A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955 ». AI Magazine 27, no 4 (2006): 12?12.
https://doi.org/10.1609/aimag.v27i4.1904.
[ii] Yakura, Hiromu, Ezequiel Lopez-Lopez, Levin Brinkmann, et al. « Empirical evidence of Large Language Model’s influence on human spoken communication ». Version 3. Prépublication, arXiv, 2024.
https://doi.org/10.48550/ARXIV.2409.01754.
• De l’auteur :
« Bonjour ChatGPT »: Comment l’intelligence artificielle change notre rapport aux autres. Mardaga, 2024.
Liker sa servitude: Pourquoi acceptons-nous de nous soumettre au numérique?? FYP éditions, 2023.
• Sur le coût environnemental :
Costa, Lou Welgryn et Théo Alves Da. « Intelligence artificielle?: le vrai coût environnemental de la course à l’IA ». Bon Pote, 2 septembre 2025.
https://bonpote.com/intelligence-artificielle-le-vrai-cout-environnemental-de-la-course-a-lia/.
Mouneu, Aurélien Deragne et Yvain. « La Fresque du Numérique ». Consulté le 4 décembre 2025.
https://www.fresquedunumerique.org/.
• Sur le digital labor
Cardon, Dominique, et Antonio Casilli. Qu’est-ce que le Digital Labor?? INA. Etudes et controverses. Paris, 2015.
https://shs.cairn.info/qu-est-ce-que-le-digital-labor--9782869382299.
ARTE, réal. Madagascar?: les petites mains de l’IA | ARTE Reportage. 2025. 24:33.
https://www.youtube.com/watch?v=b0a6M5SaQQM.