Que se passera-t-il lorsque l’intelligence artificielle dépassera inévitablement le test de Turing ?

23/10/2023

En 1950, l'informaticien britannique Alan Turing a proposé une méthode expérimentale pour répondre à la question : les machines peuvent-elles penser ? Il a suggéré que si un humain ne pouvait pas dire s'il parlait à une machine artificiellement intelligente (IA) ou à un autre humain après cinq minutes de questions, cela prouverait que l'IA possède une intelligence semblable à celle de l'homme.

Bien que les systèmes d'IA soient loin d'avoir passé le test de Turing de son vivant, il a émis l'hypothèse que

« […] dans une cinquantaine d'années, il sera possible de programmer les ordinateurs […] pour qu'ils jouent si bien le jeu de l'imitation qu'un interrogateur moyen n'aura pas plus de 70 % de chances de faire la bonne identification après cinq minutes d'interrogatoire.

Aujourd'hui, plus de 70 ans après la proposition de Turing, aucune IA n'a réussi à passer le test avec succès en remplissant les conditions spécifiques qu'il avait énoncées. Néanmoins, comme l'indiquent certains titres, quelques systèmes s'en sont rapprochés.

Une expérience récente a testé trois grands modèles de langage, dont GPT-4 (la technologie d'IA derrière ChatGPT). Les participants ont passé deux minutes à discuter avec une autre personne ou avec un système d'IA. L'IA a été invitée à faire de petites fautes d'orthographe – et à abandonner si le testeur devenait trop agressif.

Grâce à cette incitation, l'IA a réussi à tromper les testeurs. Lorsqu'ils étaient associés à un robot d'IA, les testeurs ne pouvaient deviner correctement s'ils parlaient à un système d'IA que dans 60 % des cas.

Compte tenu des progrès rapides réalisés dans la conception des systèmes de traitement du langage naturel, il est possible que l'IA réussisse le test original de Turing dans les prochaines années.

Mais l'imitation de l'homme est-elle vraiment un test d'intelligence efficace ? Et si ce n'est pas le cas, quels sont les autres critères que nous pourrions utiliser pour jauger les capacités de l'IA ?

Les limites du test de Turing

Bien qu'un système qui réussit le test de Turing nous indique qu'il est intelligent, ce test n'est pas un test décisif de l'intelligence. L'un des problèmes est qu'il peut produire des « faux négatifs ».

Les grands modèles de langage d'aujourd'hui sont souvent conçus pour déclarer immédiatement qu'ils ne sont pas humains. Par exemple, lorsque vous posez une question à ChatGPT, celui-ci fait souvent précéder sa réponse de la phrase « en tant que modèle de langage d'IA ». Même si les systèmes d'IA ont la capacité sous-jacente de passer le test de Turing, ce type de programmation annule cette capacité.

Le test risque également de donner lieu à certains types de « faux positifs ». Comme l'a souligné le philosophe Ned Block dans un article paru en 1981, il est concevable qu'un système puisse réussir le test de Turing simplement en étant codé en dur avec une réponse semblable à celle d'un être humain à toute entrée possible.

En outre, le test de Turing se concentre sur la cognition humaine en particulier. Si la cognition de l'IA diffère de celle de l'homme, un interrogateur expert sera en mesure de trouver une tâche pour laquelle les performances de l'IA et de l'homme diffèrent.

À propos de ce problème, Turing a écrit : « Cette objection est très forte :

Cette objection est très forte, mais nous pouvons au moins dire que si, malgré tout, une machine peut être construite pour jouer au jeu de l'imitation de manière satisfaisante, nous n'avons pas à nous préoccuper de cette objection.

En d'autres termes, si le fait de réussir le test de Turing est une bonne preuve de l'intelligence d'un système, le fait de l'échouer n'est pas une bonne preuve qu'un système n'est pas intelligent.

En outre, le test ne permet pas de déterminer si les IA sont conscientes, si elles peuvent ressentir de la douleur et du plaisir ou si elles ont une signification morale.

Selon de nombreux chercheurs en sciences cognitives, la conscience implique un ensemble particulier de capacités mentales, notamment la mémoire de travail, les pensées d'ordre supérieur et la capacité à percevoir son environnement et à modéliser la façon dont son corps s'y déplace.

Le test de Turing ne répond pas à la question de savoir si les systèmes d'IA possèdent ou non ces capacités.

Les capacités croissantes de l'IA

Le test de Turing repose sur une certaine logique. En effet, les humains sont intelligents, donc tout ce qui peut imiter efficacement les humains est susceptible d'être intelligent.

Mais cette idée ne nous apprend rien sur la nature de l'intelligence. Une autre façon de mesurer l'intelligence de l'IA consiste à réfléchir de manière plus critique à ce qu'est l'intelligence.

À l'heure actuelle, il n'existe pas de test unique permettant de mesurer avec certitude l'intelligence artificielle ou humaine.

Au niveau le plus large, nous pouvons considérer l'intelligence comme la capacité à atteindre une série d'objectifs dans différents environnements. Les systèmes les plus intelligents sont ceux qui peuvent atteindre un plus grand nombre d'objectifs dans un plus grand nombre d'environnements.

En tant que tel, le meilleur moyen de suivre les progrès réalisés dans la conception de systèmes d'intelligence artificielle polyvalents est d'évaluer leurs performances à travers une variété de tâches. Les chercheurs en apprentissage automatique ont mis au point une série de critères de référence à cet effet.

Par exemple, GPT-4 a pu répondre correctement à 86 % des questions dans le cadre d'une compréhension massive et multitâche des langues, un critère mesurant les performances dans des tests à choix multiples portant sur une série de sujets académiques de niveau universitaire.

Il a également obtenu de bons résultats à l'AgentBench, un outil qui permet de mesurer la capacité d'un grand modèle linguistique à se comporter comme un agent, par exemple en naviguant sur le web, en achetant des produits en ligne et en participant à des jeux.

Le test de Turing est-il toujours d'actualité ?

Le test de Turing est une mesure de l'imitation, c'est-à-dire de la capacité de l'IA à simuler le comportement humain. Les grands modèles de langage sont des imitateurs experts, ce qui se traduit aujourd'hui par leur capacité à réussir le test de Turing. Mais l'intelligence n'est pas synonyme d'imitation.

Il existe autant de types d'intelligence que d'objectifs à atteindre. La meilleure façon de comprendre l'intelligence de l'IA est de suivre ses progrès dans le développement d'une série de capacités importantes.

En même temps, il est important de ne pas continuer à « changer les règles du jeu » lorsqu'il s'agit de savoir si l'IA est intelligente. Étant donné que les capacités de l'IA s'améliorent rapidement, les détracteurs de l'idée d'intelligence de l'IA ne cessent de découvrir de nouvelles tâches que les systèmes d'IA pourraient avoir du mal à accomplir, avant de constater qu'ils ont franchi un nouvel obstacle.

Dans ce contexte, la question pertinente n'est pas de savoir si les systèmes d'IA sont intelligents, mais plus précisément quel type d'intelligence ils peuvent avoir.

Simon Goldstein, professeur associé, Institut de philosophie Dianoia, Université catholique australienne, Université catholique australienne et Cameron Domenico Kirk-Giannini, professeur adjoint de philosophie, Université Rutgers.

Traduction de The Conversation par Astro Univers

Créez votre site web gratuitement ! Ce site internet a été réalisé avec Webnode. Créez le votre gratuitement aujourd'hui ! Commencer