« L’intelligence artificielle n’est pas une question technologique: Échanges entre le philosophe et l’informaticien », coécrit par Laurent Bibard et Nicolas Sabouret.

 Un livre lu pour vous

L’AI occupe aujourd’hui une place centrale dans plusieurs secteur, à commencer par l’éducation, la santé en passant par le monde des finances ou encore la culture, sans omettre aussi le champ politique….

Dans cette série d’articles, nous allons présenter à nos lecteurs,  chaque jour et ce durant tout le mois de ramadan, un livre écrit par l’un des grands chercheurs en matière de l’intelligence artificielle.

Aujourd’hui, nous abordons le livre de  Laurent Bibard et Nicolas Sabouret, intitulé « L’intelligence artificielle n’est pas une question technologique: Échanges entre le philosophe et l’informaticien».

Dans le livre « L’intelligence artificielle n’est pas une question technologique: Échanges entre le philosophe et l’informaticien»,  Laurent Bibard et Nicolas Sabouret déconstruisent cette illusion. Loin d’être une intelligence au sens propre, l’IA est avant tout un outil, conçu et programmé par des humains. Pourtant, nous avons tendance à nous en déresponsabiliser, à lui attribuer une autonomie illusoire et, plus inquiétant encore, une forme de responsabilité.

Sommes-nous en train de nous cacher derrière la machine ? Qui décide réellement lorsque les algorithmes orientent nos choix, notre justice, notre mobilité ? Ce livre ne se contente pas de poser la question : il y répond avec clarté et profondeur.

Dès les premières pages, les auteurs s’attaquent à l’idée même d’ »intelligence artificielle ».

Le choix du terme, selon eux, est trompeur. Il fait croire que nous avons conçu une véritable intelligence, capable de réflexion et d’autonomie.

« Il n’y a donc pas vraiment d’intelligence artificielle dans ce que fait une machine, aussi malin que cela puisse nous sembler lorsque nous regardons le résultat. » (p. 5)

Une IA, aussi avancée soit-elle, ne pense pas, ne comprend pas, ne ressent rien. Elle exécute des calculs, applique des algorithmes conçus par des humains et ajuste des paramètres selon des règles statistiques.

Le mythe s’amplifie avec des expressions trompeuses comme machine learning (apprentissage automatique), laissant croire que la machine peut apprendre et évoluer comme un humain. En réalité, elle ne fait que réajuster ses poids et ses paramètres en fonction des données qu’on lui donne.

« Un programme d’apprentissage automatique ne fait que régler des paramètres pour améliorer ses résultats. Il ne réfléchit pas, il ne doute pas, il n’interroge pas ses propres évidences. » (p. 6)

La différence est cruciale : contrairement à nous, une IA ne peut pas désapprendre. Elle n’a pas la capacité de remettre en question ce qu’elle sait, ni d’adopter un raisonnement critique.

Ce point, pourtant évident pour les chercheurs, est largement ignoré dans le débat public. D’où une confusion : nous prêtons à la machine des qualités qu’elle n’a pas et, pire encore, nous en venons à lui déléguer des décisions qui devraient rester humaines.

L’IA comme écran de fumée

————————————–

À mesure que l’IA prend une place croissante dans des décisions critiques (justice, finance, sécurité, santé), une question se pose : qui est responsable en cas d’erreur ?

Le fantasme de la machine autonome a une conséquence perverse : il masque la responsabilité humaine derrière la façade technologique. « Les machines ne sont, au sens propre, responsables de rien. » (p. 37)

Prenons un exemple frappant : les voitures autonomes. Lorsqu’un accident survient, qui est en faute ? Le constructeur ? L’ingénieur qui a codé l’algorithme ? L’utilisateur qui a activé le mode automatique ?

-Le dilemme du tramway est souvent cité : une voiture autonome roule sur la route lorsqu’un groupe de six piétons traverse. Si elle ne fait rien, elle les percute.

Si elle dévie, elle écrase une personne sur le trottoir. Quelle décision doit-elle prendre ? Pour Bibard et Sabouret, ce débat est un faux problème. « Attribuer une sensibilité morale à un véhicule est une erreur qui nous abuse. » (p. 47) Ce n’est pas la voiture qui décide : c’est celui qui a programmé l’algorithme. L’IA ne fait qu’appliquer une règle préétablie, et cette règle est définie par des humains.

-C’est ici que réside le vrai enjeu : en qualifiant l’IA d’ »autonome », nous nous donnons l’illusion qu’elle prend des décisions toute seule, alors qu’en réalité, elle ne fait qu’exécuter des choix humains.

Ce phénomène est d’autant plus dangereux qu’il se généralise :

Les algorithmes de justice prédisent la récidive et influencent les jugements.

Les IA de recrutement filtrent les candidats et écartent parfois des profils de manière discriminatoire.

Les logiciels bancaires accordent ou refusent des prêts, parfois sans explication claire.

Dans tous ces cas, l’illusion d’une IA impartiale et autonome cache la réalité : ce sont toujours les humains qui prennent les décisions, en amont, à travers les algorithmes qu’ils conçoivent.

Une technologie qui enferme au lieu de libérer

————————————————————–

Un autre problème majeur soulevé par le livre est l’enfermement technologique. Loin de nous simplifier la vie, l’automatisation nous prive parfois de notre capacité d’agir.

Qui n’a jamais perdu patience face à un chatbot incapable de répondre à une demande spécifique ? « Nous avons toutes et tous vécu l’expérience frustrante d’un service client automatisé qui nous empêche d’obtenir une vraie réponse. » (p. 61)

Un échange entre un ingénieur et un formateur illustre cette déconnexion entre ceux qui conçoivent la technologie et ceux qui la subissent.

L’ingénieur explique que, dans un avenir proche, les avions n’auront plus besoin de pilotes. Le formateur lui répond : « Ah, mais s’il n’y a pas de pilote humain dans l’avion, je ne monte pas ! »

Réponse de l’ingénieur : « Mais vous ne le saurez pas. » (p. 72) Ce mépris du ressenti humain traduit une vision technocratique et autoritaire du progrès, où les concepteurs imposent des solutions sans prendre en compte les attentes des utilisateurs.

Vers une reconquête de notre rapport à la technologie

—————————————————————–

Face aux dérives d’une automatisation aveugle et à la déresponsabilisation qu’elle engendre, il devient impératif de repenser notre rapport à la technologie. Loin de prôner un rejet de l’intelligence artificielle, il s’agit plutôt d’en reprendre le contrôle en réaffirmant la primauté de la décision humaine sur les systèmes automatisés.

Dans cette perspective, une première exigence s’impose : rétablir la transparence dans la conception et l’usage des algorithmes. Trop souvent, les décisions prises par des systèmes d’intelligence artificielle sont perçues comme opaques et indiscutables. Or, si l’on considère que ces algorithmes ne sont que des outils façonnés par des concepteurs, il est essentiel de rendre leur fonctionnement accessible et compréhensible à ceux qui en subissent les conséquences.

Par ailleurs, il apparaît nécessaire de former les citoyens à la compréhension des enjeux de l’intelligence artificielle. Un manque de culture numérique peut renforcer une forme de soumission aux décisions algorithmiques, alimentant le mythe d’une IA omnisciente et infaillible. À l’inverse, une société éclairée sur les capacités réelles et les limites de ces technologies sera mieux à même de les utiliser avec discernement et esprit critique.

Enfin, il convient d’assurer une responsabilité humaine effective dans les décisions impliquant l’IA. La tentation d’automatiser intégralement certains processus décisionnels doit être combattue, notamment dans les domaines sensibles tels que la justice, la finance ou la santé. Une intelligence artificielle ne saurait être tenue responsable de ses actions ; dès lors, l’homme doit rester le garant ultime des choix qu’elle exécute.

Ainsi, il ne s’agit pas de nier les avancées offertes par l’intelligence artificielle, mais d’en faire un usage éclairé et maîtrisé. Comme le soulignent Laurent Bibard et Nicolas Sabouret, « Ce ne sont pas les machines qui décident, mais bien les humains qui leur attribuent un pouvoir » (p. 102)

Top