Les robots conversationnels comme ChatGPT offrent de nombreux avantages à la condition qu’on ne les utilise pas pour ce qu’ils ne savent pas faire.

Une puissance en progrès constant

ChatGPT a précipité les robots conversationnels dans les mains du grand public. Comme souvent, certains y voient une opportunité facile, confondant surface et profondeur, quand d’autres crient aux loups en annonçant la disparition de certains métiers, confondant au passage conversation et argumentation. Il ne fait aucun doute qu’il s’agit d’une percée significative et impressionnante sur un plan technique, qui conduira à des usages pertinents comme à des applications discutables. En ce sens, plusieurs observateurs ont relaté certaines dérives, comme par exemple le professeur australien Seth Lazar qui relate un échange douteux avec la version de ChatGPT intégrée au moteur de recherche Bing.

Gageons qu’il s’agisse d’erreurs de jeunesse d’une technologie qui ne cessera de s’améliorer. Des initiatives comme ToxiGen pour contrer les risques de dérives haineuses par exemple s’inscrivent en ce sens.

On pourrait penser en première analyse qu’à l’instar de toute technologie, tout dépendra de ce que l’être humain en fera. Or, c’est précisément-là que certaines questions se posent désormais car la perspective est un peu différente dans le cas présent. En substance, le discernement et l’esprit critique des utilisateurs sont toujours clé mais la nature même de l’outil, de ce qu’on lui a appris à faire et comment sont déterminantes.

LLM et conversation

Les technologies dont il s’agit reposent sur ce qu’il est convenu d’appeler des LLM pour Large Language Model. Il s’agit d’algorithmes d’apprentissage profond (deep learning) qui produisent du texte en langage naturel. C’est ce sur quoi s’appuie ChatGPT avec le LLM d’OpenAi baptisé GPT-3[1]. En substance, il s’agit de l’application d’un concept plus vaste, utilisé dans d’autres domaines, les modèles « Transformers » avec un « mécanisme d’attention » qui offrent une très grande puissance car ils peuvent mettre en parallèle ce qui était réalisé auparavant de façon séquentielle avec des réseaux de neurones récurrents (RNN). Le progrès considérable observé récemment vient en partie de cette puissance liée à la parallélisation. Autrement dit, le robot encode/décode plus et plus vite, on peut donc le nourrir plus, il apprend mieux et donc restitue mieux.

Le fonctionnement de ces algorithmes invite néanmoins à formuler deux remarques :

Ces deux caractéristiques ne posent pas de difficulté intrinsèque : elles constituent des particularités qu’il suffit de comprendre pour profiter de la puissance des outils sans pour autant ignorer leurs limites. En d’autres termes, il faut que l’utilisateur fasse, d’une part, un effort de discernement quant au résultat que lui fournit le robot et, d’autre part, aille à la pêche d’une « contre-information » en l’absence de connaissance des sources qui l’ont nourri.

L’outil façonne les usages

Dans cette perspective, l’observation des modes d’accès à l’information depuis 20 ans par Internet livre peut-être un enseignement. Les premiers moteurs de recherche, comme Yahoo lorsqu’il proposait une recherche par catégories, demandaient un effort de réflexion à l’utilisateur.

Google s’est ensuite rapidement imposé par la simplicité qu’il offrait : un champ de recherche par mots-clefs sans avoir à naviguer dans une taxinomie fastidieuse. Moins d’effort pour l’utilisateur donc mais avec toujours la possibilité d’apprécier le degré de pertinence des réponses fournies.

Or, on le sait, la paresse et la facilité l’emportent souvent dans la durée… Combien font aujourd’hui l’effort de scroller au-delà des premières réponses ? Qui est vigilant et veille à distinguer les liens sponsorisés, des « extraits optimisés » ou des sites en tant que tels ? Qui a fait l’effort dans la pratique d’utiliser des moteurs de recherche alternatifs plus respectueux des données personnelles malgré sa conscience des défauts de ceux qu’il utilise ?

Pour avoir un début de réponse, il suffit de voir à quel point l’algorithme de LinkedIn impose sa loi, conduisant à ce que chacun cherche à « l’utiliser » pour optimiser sa visibilité et à ce qu’in fine bruit, gesticulation, commentaires et polémiques l’emportent inévitablement sur la pertinence de l’information.

La valeur de l’information

Les outils et moyens qui donnent accès à l’information conditionnent non seulement les comportements mais ils constituent aussi des filtres qui infusent puis diffusent information et désinformation. C’est un sujet invariant qui pose l’éternelle question de la confiance dans la source de l’information. Je me souviens par exemple avoir assisté il y a plus de 30 ans à un colloque sur la désinformation dont il ressortait en substance que tous les experts étrangers affirmaient que la source la plus fiable d’information en France était alors le journal Le Monde, tous s’empressant d’ajouter « sauf pour tel domaine »… précisément celui de leur expertise… S’informer avec justesse, distinguer la bonne information du bruit a toujours demandé un effort et le demandera toujours. Simplement, la nature de l’effort change : elle se déplace de la capacité à accéder à l’information à la capacité à en apprécier la pertinence et la valeur.

Les risques de la paresse

Or, on peut craindre que la facilité et le confort des robots conversationnels conduisent à ce qu’ils deviennent la norme d’accès à l’information pour le commun des mortels. La guerre entre les grands industriels du secteur en est relancée. Comme nous l’écrivions avec Patrick Bouvard il y a 20 ans : « l’enjeu moderne est la modélisation d’une recherche rapide, opérationnelle, intégrant des principes d’exploitation paramétrables des informations. Celui qui possèderait un tel outil serait plus maître du jeu que les autres »[2]. Or, si cette hypothèse s’avérait, elle comporterait plusieurs risques qui doivent inviter à une vigilance individuelle et collective.

Les sociétés de contrôle

Dans cette optique, peut-être est-il opportun de rappeler les mots de Gilles Deleuze sur l’art et les sociétés de contrôle.

Il stipulait que l’information constitue un « mot d’ordre » car elle dit « ce que vous êtes censés devoir croire » ou plus exactement de « nous comporter comme si nous le croyions ». L’information, en cela quelle consiste à « faire circuler un mot d’ordre », est un système de contrôle dont il affirmait qu’il constituerait le moyen principal d’une « société de contrôle ». Constatant le caractère inopérant de la « contre-information », Gilles Deleuze suggérait que seul « l’acte de résistance » pouvait avoir un effet de contre-pouvoir, l’art en étant un.

Si l’on craint qu’une généralisation massive des robots s’apparente à une maîtrise des « mots d’ordre » avec pour corollaire contrôle et normalisation de l’information, quel acte de résistance poser si ce n’est celui de développer tout aussi massivement la culture, en cela qu’elle « permet d’attribuer à chaque information ou à chaque connaissance le degré de certitude et d’opportunité qui lui convient » (Bouvard. P, Storhaye P. 2002) ?

Il n’est pas question de nier les formidables avancées de l’IA car les modèles d’apprentissage dont il est ici question offrent des avantages considérables, y compris dans des domaines comme l’analyse de séquences biologiques. En revanche, leur puissance oblige à ne pas occulter les conséquences potentielles sur un plan sociétal.

L’enjeu des années à venir est indiscutablement celui de la culture donc de l’éducation !

[1] GPT-3 pour « Generative Pre-trained Transformer 3 ». Il y a en a d’autres, comme BERT chez Google ou RoBERTa chez Facebook

[2] Bouvard. P, Storhaye P. (2002) « Knowledge Management : Vade Mecum » EMS