Intelligence humaine et artificielle

Laurent Ach
5 min readApr 15, 2023

--

L’intelligence est une propriété du vivant, elle est chez les humains intrinsèquement liée au langage avec lequel se construit la société. De l’intelligence et du langage naît la science, qui nous permet d’agir sur le monde et de transformer notre environnement. Le cadre scientifique permet de réduire ce que nous percevons subjectivement de la réalité à une représentation formelle objective composée de symboles qu’on peut manipuler par des calculs. L’intelligence nous rattache à la réalité en la représentant comme un système abstrait de concepts qui nous permettent de raisonner en employant des notions abstraites puis d’agir concrètement en construisant des objets matériels et de la technologie. Par son échappée vers l’abstraction, l’intelligence nous détache aussi de la réalité. Ce système abstrait de concepts et de symboles est d’une insupportable fragilité car il doit en permanence être re-pensé, ré-interprété, ré-inventé pour ne pas perdre sa signification.

A sample of Abstraction and Reasoning Corpus

Les machines sont conçues à partir de systèmes formels. Les ordinateurs sont des outils de notre intelligence qui fonctionnent à partir des symboles que nous leur faisons manipuler. Ils transforment les données (data) que nous leur envoyons en entrée (input) en données que nous récupérons en sortie (output). Depuis l’invention du machine learning et du reinforcement learning, ce ne sont plus des séquences d’instructions écrites par des humains qui opèrent cette transformation mais des modèles dont les paramètres sont optimisés par apprentissage (training). Le travail des chercheurs en intelligence artificielle consiste à imaginer de nouveaux algorithmes d’apprentissage qui permettent d’entraîner ces modèles à réaliser des fonctions de plus en plus élaborées. Nous programmons les mécanismes de l’entraînement et choisissons les données à partir desquels sont optimisés les nombreux paramètres du modèle mais nous ne connaissons pas le détail des opérations qui constituent finalement ces fonctions.

C’est particulièrement le cas avec les réseaux de neurones artificiels, un modèle qui s’inspire d’une représentation biologique simple des neurones de notre cerveau et qui les connecte en couches (layers) qui se succèdent pour constituer les étapes d’un processus de transformation des données, en partant de celles reçues dans la couche d’entrée pour arriver au résultat récupéré dans la couche de sortie. L’architecture des connexions entre les neurones (ou cellules) de ces réseaux et les mécanismes qui définissent le fonctionnement de chaque cellule s’est complexifiée par des inventions notables comme les réseaux convolutifs et les mécanismes d’attention. C’est ce qui a amélioré les performances et les capacités de ces réseaux de neurones, depuis la première version du Perceptron en 1957, le premier mécanisme d’apprentissage du Perceptron multi-couches des années 1980, jusqu’au deep learning des années 2010 et aux grands modèles de langage (Large Language Models ou LLM) autour de 2020.

Les LLM sont capables de transformer des séquences de mots reçus en entrée, en séquences de mots produits en sortie, après un apprentissage qui optimise la vraisemblance de l’apparition d’un mot dans des textes rédigés par les humains. Des mots sont générés en fonction de ceux qui les précédent d’une manière qui rend le résultat le plus probable suivant l’observation de millions de textes écrits par des humains sur tous les sujets possibles, dans de nombreux langages naturels et dans des langages formels comme les langages informatiques. Les progrès techniques des LLM, leurs milliards de paramètres et le volume de données à partir desquels ils sont entraînés produisent des résultats fabuleux. Le texte qu’ils génèrent et les réponses qu’ils donnent semblent souvent être écrits par des humains et donnent en général des informations précises et élaborées. Bien qu’il existe encore beaucoup de limitations à ces modèles, par exemple leur manque de fiabilité qui va de pair avec l’impossibilité de contrôler directement les sources d’information à partir desquelles les réponses sont construites, l’intelligence artificielle semble capable de progressivement remplacer l’intelligence humaine pour tout ce qui utilise la communication verbale et écrite, c’est à dire une part essentielle de notre activité intellectuelle. Comme des variantes de ces modèles démontrent des capacités similaires dans le domaine de l’analyse et la génération d’images fixes et animées, l’analyse et la synthèse de la parole, la production musicale, on pourrait ainsi croire que l’intelligence artificielle nous remplacera un jour dans toutes nos activités intellectuelles, devenant ce qu’on appelle de l’intelligence artificielle générale.

La prédiction de l’avènement d’une intelligence artificielle générale (Artificial General Intelligence ou AGI) a été faite depuis les débuts de l’informatique sous diverses formes et elle est associée à l’idée d’une superintelligence qui dépasserait largement l’intelligence humaine. Elle suppose qu’une fois toutes les capacités intellectuelles humaines atteintes par les ordinateurs, ils pourront à leur tour améliorer leurs propres performances suivant un cycle d’évolution menant à une explosion de l’intelligence, qui rendrait finalement l’espèce humaine obsolète. Ce genre de prédictions ignore que le langage et les symboles sont le fruit d’une activité intellectuelle humaine perpétuelle sans laquelle il perdent immédiatement leur sens. Elles font l’hypothèse que toutes les capacités intellectuelles humaines naissent du traitement de l’information tel qu’il est réalisé par les machines qui nous surpassent dans ce domaine. Elles supposent que l’expérience subjective, les émotions, les sentiments, la conscience apparaissent naturellement lorsque le traitement de l’information atteint un certain degré de complexité.

C’est évidemment le contraire qui se produit : de l’expérience subjective naît le langage qui représente nos perceptions à différents degrés d’abstraction. Les symboles des systèmes formels comme ceux de la science ou de l’informatique sont aussi un produit du langage naturel, qui ne peut exister sans expérience subjective. Il faut une personne pour parler, un chatbot n’est pas une personne. Les mots et les symboles sont le résultat d’un travail d’objectivation des expériences subjectives combinées de plusieurs personnes et leur sens n’existe qu’à travers ces différentes subjectivités. Sans sujet, la représentation de l’objet n’existe pas. Sans conscience, il est impossible de définir les bases de modèles scientifiques ou informatiques car on ne peut pas définir les premiers symboles d’un système formel sans utiliser un langage naturel qui préexiste. La conscience est apparue avec l’évolution du vivant et il n’y a aucune raison de penser qu’elle pourrait apparaître avec l’évolution de l’informatique. Même avec un point de vue très réductionniste qui considérerait que les êtres vivants sont équivalent à des machines, le niveau d’échelle auquel il est nécessaire de modéliser ces machines pour qu’apparaisse une conscience est évidemment bien plus fin que toute la science dont nous disposons aujourd’hui car aucun scientifique n’a la moindre idée de la manière d’expliquer les mécanismes sur lesquels repose l’apparition d’une expérience subjective.

Les informations traitées par les ordinateurs, qui sont toutes représentées au plus bas niveau par des zéros et des uns, n’auront jamais de signification pour les ordinateurs. L’intelligence artificielle réussit aujourd’hui la prouesse de générer du contenu textuel, visuel, sonore, très utile pour les humains, après avoir été entraînée à cela à partir de données produites par des humains. Nous retrouvons en sortie des modèles de machine learning, de l’information qui repose sur des concepts transmis à travers les documents sur lesquels ils ont été entraînés. Ces modèles ne pourront jamais produire de concepts qui ne soient implicitement présents dans les données d’entraînement et ils ne connaîtront jamais tous les concepts d’une époque car la base d’entraînement n’est pas infinie. Les humains, au contraire inventent des concepts, des symboles, du langage, à partir de leurs perceptions et de leur expérience subjective. Ils créent des mots, des symboles, des institutions politiques puis leur donnent des sens différents ou les abandonnent et en inventent de nouveaux. Les humains créent du langage, de la science, de l’art, de la philosophie, de la politique. Les ordinateurs ne créeront jamais rien mais nous pourrons de moins en moins nous en passer.

--

--

Laurent Ach

CTO of Qwant, previously Director Europe of Rakuten Institute of Technology, interested in the essential differences between artificial and human intelligence