La raison d’être d’une intelligence artificielle

Quelle est sa vraie nature ?

Tout commence en 1950 lorsqu’Alan Turing se demande si une machine peut « penser ». Depuis, l’histoire de l’intelligence artificielle n’a cessé de s’étoffer.

C’est d’abord dans les années 80 qu’une nouvelle page de cette histoire s’écrit avec l’avènement du machine learning. On verra apparaitre de nouveaux systèmes tels que Mycin qui permettra de diagnostiquer les maladies infectieuses du sang, LeNet qui est le premier programme à reconnaitre les codes postaux, ou encore le programme Watson d’IBM qui remportera le jeu télévisé Jeopardy. Durant cette période, l’IA a essentiellement un rôle de soutien et d’assistance aux tâches devant être accomplies par l’Homme et apporte une aide dans la prise de décision.

En 2017, une nouvelle étape est franchie avec Libratus, vainqueur d’un tournoi de poker. Cette IA est capable de s’adapter à n’importe quelle situation à information incomplète. Le champ d’action de l’IA se voit élargi et peut gérer des situations de plus en plus complexes en s’adaptant et s’améliorant sans aide extérieure.

Et, c’est enfin en 2020 que le fameux GPT-3 fait son apparition, un modèle linguistique capable de coder en CSS, JSX, Python, d’analyser des textes et de générer des pastiches de grands auteurs. Désormais, nous ne sommes plus dans le cas d’une IA ayant un seul objectif bien défini, mais nous avons bien à faire à une IA omni-rôle, avec des capacités plus proches que jamais de celle de l’Homme.

La question que l’on peut et doit se poser est : où va-t-on avec tout cela ? Que cherche-t-on à faire avec l’intelligence artificielle ? Quelle est la finalité de l’ensemble des programmes de recherche et développement menés dans cette discipline ?

D’abord, de nature à soutenir l’Homme dans ses tâches et ses prises de décisions, il semblerait que nous nous dirigeons de plus en plus vers des IA de nature à supplanter l’Homme.

Pour comprendre la raison d’être des intelligences artificielles, il faut s’interroger sur leur vraie nature.

Commençons par nous : l’IA, une extension de l’Homme

Nous sommes des Homo sapiens, ce qui signifie « humain sage ». Nous nous définissons comme cela parce que l’intelligence est la caractéristique principale qui nous différencie des autres espèces (certains me diront que c’est discutable).

On s’accordera quand même à dire qu’en tant qu’Homme, nous sommes capable de percevoir, comprendre, prévoir et manipuler un monde bien plus complexe que nous.

Si nous devions synthétiser les différentes définitions de l’intelligence artificielle que l’on peut trouver, nous serions tentés de dire que c’est une entité intelligente, capable de calculer comment agir efficacement et de manière sure dans une grande diversité de situations nouvelles. Et à bien y regarder, l’IA est aujourd’hui capable d’apprendre, de percevoir, de raisonner. Elle peut être utilisée tant en médecine pour détecter des tumeurs que pour créer des œuvres d’art et des partitions de musique.

L’IA est un domaine universel.

Selon plusieurs analystes tel que Kai Fu Lee, l’impact qu’aura l’IA sera « plus important que tout autre dans l’histoire de l’humanité ». Elle offre un champ de recherche encore largement ouvert contrairement à d’autres disciplines plus anciennes où la plus part des découvertes ont déjà été faites.

Le plus gros reste encore à venir.

L’IA, Une entité artificielle et intelligente

Historiquement, les chercheurs ont développé deux conceptions différentes de l’IA :

  1. La première voit l’IA comme ayant pour seul objectif d’imiter l’humain fidèlement, d’avoir un fonctionnement interne identique à ce dernier et être au moins aussi intelligent que lui.
  2. La seconde conçoit l’IA comme une entité rationnelle, c’est-à-dire dont le seul objectif est de « faire le bon choix ». C’est là une définition plus abstraite et formelle où l’IA est une intelligence idéale non forcément fondée sur l’humain.

Pour définir convenablement ce qu’est une IA, il convient d’abord de définir ce qu’est l’intelligence. Et là encore, deux visions s’opposent :

  1. Certains considèrent que c’est la capacité à penser et à raisonner qui font que l’on peut dire d’une entité qu’elle est intelligente.
  2. D’autres diront que c’est le comportement de l’entité d’un point de vue externe qui fait que l’on peut juger de son intelligence.

On a donc deux oppositions sur deux dimensions distinctes :

Imiter versus Rationnel

Raisonnement versus Comportement

De ces deux dimensions découlent quatre combinaisons différentes qui ont chacune leurs propres programmes de recherche avec des méthodes nécessairement différentes :

 ComportementRaisonner
ImiterAgir comme un Humain : Le test de TuringPenser comme un humain : l’approche cognitive
RationnelAgir rationnellement l’approche de l’agent rationnelPenser rationnellement : les lois de la pensée

Dans le cas où l’on cherche à imiter l’humain, on fera plutôt appel à des sciences empiriques liées à la psychologie avec des observations et des hypothèses. Et dans le cas où l’on cherche à développer une IA de type rationnel, on fera plutôt appel aux mathématiques et à l’ingénierie, aux statistiques à la théorie du contrôle et à l’économie.

Adopter une approche n’empêche pas de s’appuyer sur la seconde et obtenir une combinaison des deux.

Voyons cela plus en détails.

1. Agir comme un Humain : Le test de Turing

Le fameux test de Turing, conçu par Alan Turing en 1950, est ce qui illustre le mieux une IA qui imite l’humain par le comportement. Il a pour objet de répondre à la question « une machine peut-elle penser ? ». En réalité, le test va plutôt permettre de contourner cette question car il se base seulement sur l’aspect extérieur de l’IA, son comportement.

Le test se déroule comme suit : un utilisateur humain interroge une machine par écrit qui, elle aussi, va répondre par écrit. Le test est considéré comme réussi si après un certain nombre de questions, l’humain ne peut pas déterminer s’il communique avec une machine ou une autre personne.

Pour réussir ce test, un tel ordinateur aurait besoin de maitriser :

  • le traitement du langage naturel, pour pouvoir communiquer couramment dans un langage humain ;
  • la représentation des connaissances, pour mémoriser ce qu’il sait ou entend ;
  • le raisonnement automatisé, pour répondre aux questions et tirer de nouvelles conclusions ;
  • l’apprentissage pour s’adapter à de nouveaux contextes, détecter et extrapoler des schémas.

D’autres chercheurs ont proposé un test de Turing complet où cette fois-ci la machine doit interagir avec des objets et des personnes du monde réel. Dans ce cas, le robot doit en plus maitriser :

  • la vision par ordinateur et la reconnaissance de la parole pour percevoir le monde ;
  • une capacité robotique pour manipuler des objets et se déplacer.

Concrètement, les chercheurs ne cherchent plus aujourd’hui à faire réussir le test de Turing à leur machine, mais vont plutôt se concentrer sur les six composantes que l’on vient de décrire.

Les oiseaux ont inspiré la création des avions, mais les avions que l’on a créé ne battent pas des ailes comme les oiseaux et ils volent très bien.

C’est cette conception de l’IA qui va user du machine learning.

2. Penser comme un humain : l’approche cognitive

Pour pouvoir produire un programme qui pense comme un humain, il faut d’abord comprendre comment pense un humain. Et là encore, il y a trois manières de conceptualiser les pensées humaines :

  • On peut d’abord essayer de saisir ses propres pensées au fur et à mesure qu’elles défilent dans notre tête. C’est ce que l’on appelle l’introspection.
  • On peut observer le comportement des autres. C’est ce que l’on fait quand on mène une expérience psychologique.
  • Ou on peut encore observer le fonctionnement du cerveau grâce à l’imagerie médicale.

C’est en comprenant le comportement humain que l’on peut le traduire en entrée-sortie d’un programme informatique.

L’un des exemples qui illustrent assez bien cela est la traduction automatique. On se rend rapidement compte que la chronologie des mots, les différents mots associés ensemble, ainsi que leur contexte peut avoir une influence significative sur le sens voulu de la phrase. Il est déterminant de comprendre les mécanismes du langage humain qui font que les mots sont associés de telle manière dans une première langue et d’une autre manière dans une seconde. On cherche ici à comprendre les mécanismes de la pensée du langage.

Il en est de même pour la vision par ordinateur où il a été nécessaire de comprendre que pour différencier un chat d’un chien, il faut comprendre les mécanismes du traitement de l’image par le cerveau humain. Notre cerveau sélectionne l’information qu’il juge utile, ne retenant qu’une infime partie de ce qui est face à lui, ce qui nous intéresse, ce que nous cherchons, ce qui fait sens pour nous. Il en est de même pour les IA de reconnaissance d’image qui ne vont pas traiter les pixels un à un mais plutôt les traiter par zone comme dans le cas des méthodes pseudo-HAART ou par convolution.

Ainsi, le domaine des sciences cognitives fait largement appel aux techniques expérimentales de la psychologie afin de théoriser de manière précise et vérifiable le fonctionnement de l’esprit humain.

C’est notamment l’approche cognitive qui demandera l’usage des réseaux de neurones où chaque neurone correspond à un rouage du mécanisme de la pensée.

3. Pensée rationnelle : les « lois de la pensée »

C’est Aristote qui pour la première fois va codifier la pensée logique dans ses traités que l’on connait aujourd’hui sous le nom d’Organon. Même si le terme de « logique » lui était inconnu, cela ne l’a pas empêché de proposer des syllogismes sur les procédés du raisonnement irréfutable permettant d’aboutir à des conclusions toujours vraies.

Pour exemple, « Socrate est un homme » et « tous les hommes sont mortels », on peut donc en conclure que « Socrate est mortel ».

La logique, au sens conventionnel du terme, nécessite une connaissance complète de l’environnement avec certitude. Mais cela est rarement le cas pour nous humain. Nous ne connaissons pas les règles de la politique ou de la guerre comme l’on connait les règles des échecs.

Pour combler ce manque, on va généralement puiser dans la théorie des probabilités.
Sur la base d’informations incertaines, on va pouvoir construire un modèle complet de pensée rationnel. On va passer de perception brut à la compréhension des mécanismes du monde pour enfin aboutir à des prédictions sur le futur.

Pour illustrer cela, on peut prendre la théorie de Bayes qui est à l’origine du modèle naïf bayésien, un modèle très efficace pour détecter les spams. Pour faire simple, on va regarder la fréquence d’apparition de certain mots (tels que « gratuit » et « carte bancaire » ) dans des emails que l’on sait être des spams et dans des emails que l’on sait ne pas être des spams. La formule de Bayes nous permettra de déduire qu’un email qui contient les mots « gratuit » et « carte bancaire » a 90% de chances d’être un spam.

La théorie de la pensée rationnelle ne suffit pas, il faut aussi une théorie de l’action rationnelle. On pensera ici à la fonction d’utilité permettant de décrire les préférences d’un individu.

4. Agir rationnellement : l’approche de l’agent rationnel

Un agent est tout simplement une entité qui agit. Un agent informatique est donc un programme qui, en plus de faire des calculs comme n’importe quel autre, va :

  • Agir de manière autonome ;
  • Percevoir son environnement ;
  • Substituer pendant une période prolongée ;
  • S’adapter au changement et poursuivre des objectifs.

Un agent rationnel sera un agent qui va agir avec pour objectif d’atteindre le meilleur résultat. Et dans un environnement incertain, il devra plutôt atteindre le meilleur résultat espéré.

Dans ce second cas, on pourra faire le lien avec une IA basée sur les lois de la pensée et la théorie des probabilités. L’IA, en tant qu’agent rationnel devra donc être capable d’élaborer des estimations déduites des probabilités, mais surtout prendre la meilleure décision en fonction de son environnement. On dira de l’IA qu’elle doit faire de l’inférence.

Nous pourrons remarquer qu’une IA ayant toutes les caractéristiques pour réussir le test de Turing est forcément un agent rationnel. En effet, la représentation des connaissances et le raisonnement permettent à une IA de prendre de bonne décision.

Néanmoins l’approche de l’IA en tant qu’agent rationnel reste plus généraliste que celle basée sur les lois de la pensée ou le test de Turing. La validité des inférences n’est pas le seul moyen d’être rationnel. De plus, les mathématiques y jouent un rôle important en permettant de prouver la rationalité d’un agent, ce qui n’est pas faisable si l’objectif est d’imiter le comportement humain ou le processus de pensée.

La théories des probabilités et l’apprentissage machine y jouent un rôle important pour prendre les meilleurs décisions en situation d’incertitude.

C’est l’approche de l’agent rationnel qui a prévalu pendant la plus grande partie de l’histoire de l’IA. Cette approche est si présente en IA que l’on peut la voir comme étant le modèle standard.
Cependant, ce modèle a ses limites, notamment dans le cas de problème complexe nécessitant une trop grande quantité de calculs pour atteindre le résultat optimal. Dans ce cas, on s’orientera plutôt vers un résultat satisfaisant nécessitant moins de calculs. On parlera ici de rationalité limitée.

Pour conclure : la nature de l’IA de demain

Le modèle standard, largement répandu aujourd’hui, nécessite de fournir à la machine un objectif clairement défini et seulement un objectif. Or, sur le long terme, ce paradigme risque ne plus être satisfaisant pour répondre au problème futur de notre société. Plus nous avançons dans le temps et plus il devient complexe de définir un objectif de manières correcte et complète.

Nous pouvons pendre pour exemple le problème de la voiture autonome où nous pourrions penser que l’objectif est seulement d’atteindre la destination. Mais la situation réelle sur une route est bien plus complexe et va inclure entre autres choses un risque inhérent d’être blessé par d’autres conducteurs, un risque de pannes mécaniques, ou encore le risque de gêner d’autres conducteurs. L’objectif principal est conditionné par des valeurs, des objectifs secondaires que l’on ne peut pas tous énumérer.

Il y a un compromis à trouver entre progresser vers la destination et se prémunir contre les risques. C’est ce que l’on appelle le problème d’alignement des valeurs. En d’autres termes, les valeurs de l’IA doivent être alignées sur celles des humains. Et toute la complexité est de définir de manière exhaustive ces valeurs afin de les intégrer dans l’objectif de l’IA. Déployer un système qui a un objectif incorrect pourrait avoir de lourdes conséquences. Plus le système déployé sera intelligent et plus les conséquences seront graves.

Imaginons maintenant l’exemple d’une IA jouant aux échecs. Si ses valeurs sont mal alignées, elle pourrait très bien essayer de gagner en jouant en dehors de l’échiquier, en faisant chanter son adversaire ou en soudoyant le public pour qu’il fasse du bruit. Elle pourrait même essayer de détourner de la puissance de calcul supplémentaire pour elle-même étant donnée que son seul objectif défini est de gagner.

Une hypothèse a même été formulée dès 1965 par Irving John Good selon laquelle les avancées dans le domaine de l’IA pourraient déclencher une croissance exponentielle de la technologie qui engendrerait des changements imprévisibles dans notre société humaine. On parle de singularité technologique.

Il est impossible d’identifier tous les abus qu’une IA pourrait commettre. Et nous sommes tout à fait en droit de penser que le modèle standard devienne inadéquat.

En somme, nous voulons d’une IA qui poursuive nos objectifs. Et si nous ne sommes pas capable de transmettre parfaitement nos valeurs à l’IA alors nous avons besoin d’un nouveau modèle qui lui permette de les poursuivre tout en restant dans l’incertitude, l’incitant à agir avec prudence et à demander la permission, ainsi qu’a toujours mieux observé l’être humain pour toujours mieux comprendre ces valeurs.

Références :

Laisser un commentaire