« Intelligence artificielle, intelligence humaine : la double énigme », écrit par Daniel Andler

Un livre lu pour vous  

L’AI occupe aujourd’hui une place centrale dans plusieurs secteur, à commencer par l’éducation, la santé en passant par le monde des finances ou encore la culture, sans omettre aussi le champ politique….

Dans cette série d’articles, nous allons présenter à nos lecteurs,  chaque jour et ce durant tout le mois de ramadan, un livre écrit par l’un des grands chercheurs en matière de l’intelligence artificielle.  

 Aujourd’hui, nous abordons le livre de Daniel Andler, intitulé : « Intelligence artificielle, intelligence humaine : la double énigme »

L’essor de l’intelligence artificielle (IA) a ouvert des débats philosophiques et scientifiques sur la nature de l’intelligence et ses frontières. Daniel Andler, dans Intelligence artificielle, intelligence humaine : la double énigme, examine les paradoxes de l’IA moderne et met en évidence les défis qu’elle rencontre, notamment en termes de compréhension du langage, d’apprentissage profond et de rapprochement avec les neurosciences.

La cécité sémantique : un obstacle fondamental

——————————————————

L’une des critiques majeures formulées à l’égard de l’IA concerne sa cécité sémantique, c’est-à-dire son incapacité à comprendre véritablement le sens des informations qu’elle traite. Andler mobilise l’expérience de la Chambre chinoise, théorisée par John Searle, pour illustrer ce phénomène : une IA peut manipuler des symboles et fournir des réponses cohérentes sans jamais saisir leur signification intrinsèque. « Simuler un processus n’est pas le reproduire » (p. 152), souligne Andler, insistant sur le fait que la compréhension humaine implique des processus cognitifs bien plus profonds que la simple manipulation de données.

Les conséquences de cette cécité sémantique sont multiples. D’abord, elle limite la fiabilité de l’IA dans des domaines où l’interprétation contextuelle est essentielle, comme la traduction automatique ou l’analyse d’opinions. Ensuite, elle pose un problème éthique et de responsabilité : si une IA prend une décision erronée basée sur une mauvaise interprétation des données, qui en porte la responsabilité ? Enfin, elle remet en cause l’idée d’une intelligence artificielle générale capable d’imiter la cognition humaine. Andler précise : « Chaque pas accompli par l’intelligence artificielle semble consister à découvrir que l’intelligence n’est pas là où elle pensait en trouver une trace » (p. 178).

L’essor du connexionnisme et ses limites

——————————————————-

Le développement du deep learning a permis à l’IA de réaliser des prouesses impressionnantes en matière de reconnaissance d’image, de traduction automatique et de jeux stratégiques. Ces avancées reposent sur le connexionnisme, une approche qui s’inspire du fonctionnement des neurones biologiques pour modéliser l’apprentissage machine. Toutefois, Andler met en garde contre une foi aveugle dans cette technologie : « Le deep learning repose sur une induction aveugle, sans véritable compréhension des concepts » (p. 205).

En effet, les réseaux neuronaux artificiels apprennent à partir de vastes ensembles de données, mais leur capacité à généraliser reste limitée. Ils peuvent produire des résultats surprenants, mais sont souvent incapables d’expliquer leur propre raisonnement. Cette boîte noire pose un problème critique en termes de transparence et d’éthique, notamment dans des domaines sensibles comme la justice ou la médecine. Andler cite l’exemple des biais algorithmiques : « On ne sait pas toujours comment un modèle de deep learning arrive à ses conclusions, ce qui pose un sérieux problème de confiance et de validation scientifique » (p. 211). De plus, l’apprentissage profond est extrêmement gourmand en données et en ressources computationnelles, ce qui soulève des questions environnementales et économiques.

Le rapprochement entre IA et neurosciences

—————————————————

Face à ces limites, certains chercheurs plaident pour une approche plus inspirée des neurosciences afin de concevoir une IA plus proche du raisonnement humain. Andler mentionne l’essor de la neuroIA, qui vise à intégrer des principes biologiques dans la conception des systèmes d’intelligence artificielle. « Une IA plus proche des mécanismes cérébraux humains pourrait combler certaines lacunes actuelles » (p. 243), note-t-il.

Les neurosciences pourraient notamment aider à développer une forme de mémoire plus efficace, une meilleure capacité d’adaptation et une compréhension plus contextuelle des informations. Par exemple, les modèles inspirés de la plasticité synaptique pourraient permettre aux machines d’apprendre de manière plus flexible et moins dépendante d’ensembles de données massifs. Andler évoque également les travaux sur les réseaux neuronaux bio-inspirés qui pourraient constituer une nouvelle révolution technologique : « Si nous comprenons mieux les mécanismes cognitifs du cerveau, nous pourrons sans doute concevoir des IA plus intelligentes et moins rigides » (p. 258).

Cependant, ce rapprochement pose également des questions philosophiques et éthiques. Si une IA devenait capable d’émuler les processus cognitifs humains, qu’est-ce que cela signifierait pour notre propre identité et notre place dans le monde ? La neuroIA pourrait-elle aboutir à des machines dotées d’une forme de conscience ou d’intentionnalité ? Ces interrogations montrent que le débat sur l’intelligence artificielle ne se limite pas à la technologie, mais touche aussi à des questions fondamentales sur la nature même de l’intelligence et de la pensée.

Un autre enjeu soulevé par Andler concerne la quête d’une IA totalement autonome. Il met en garde contre les dangers d’une IA qui fonctionnerait sans supervision humaine, soulignant que l’autonomie véritable est propre aux êtres humains. « L’autonomie véritable, celle des humains, est de l’ordre du mystère » (p. 271), explique-t-il, insistant sur le fait que même les systèmes d’IA avancés restent fondamentalement dépendants des humains pour leur conception et leur supervision.

Ce débat touche notamment aux risques liés à l’IA dans des domaines sensibles comme la santé, l’armée ou la finance, où des décisions automatiques pourraient avoir des conséquences majeures. Andler plaide pour une approche prudente : « Nous devons nous assurer que l’IA reste sous contrôle humain, afin d’éviter des dérives imprévisibles » (p. 278).

Il faut dire que Daniel Andler défend dans son livre une vision prudente de l’IA. Il rappelle que, malgré ses succès techniques, elle reste limitée par sa cécité sémantique et son incapacité à reproduire la richesse cognitive humaine. Plutôt que de chercher à créer une intelligence artificielle autonome et généraliste, il plaide pour une IA comme outil à la disposition des humains, visant à les assister sans les remplacer. « Ce dont nous avons besoin, ce n’est pas d’une IA qui pense comme nous, mais d’une IA qui nous aide » (p. 289), conclut-il.

Top