L’épouvantail ChatGPT

Vous avez naturellement tous lu la presse à propos des prouesses de ChatGPT, le dernier robot qui sait tout sur tout. Les plus curieux d’entre vous l’ont peut-être même testé. Capable de répondre instantanément à toutes les questions qu’on lui pose, de rédiger un exposé, un poème, de reconnaître des objets, etc. il est devenu, en quelques semaines, un véritable épouvantail : pour les professeurs, dont les élèves se servent déjà de lui pour rédiger leurs dissertations, pour les journalistes qui craignent sa concurrence, pour les pouvoirs publics qui craignent la désinformation qu’il est capable d’amplifier, etc.

On l’a compris, ChatGPT, accessible au grand pubic, est le dernier produit le plus populaire sinon le plus spectaculaire de l’intelligence artificielle (IA).  
L’humanité aime se faire peur. Ses pouvoirs démiurgiques la fascinent et l’angoissent en même temps. Il est vrai que depuis 1945, elle a commencé à acquérir, avec la bombe nucléaire, la capacité de s’auto-détruire. Capacité qu’elle n’a cessé depuis de développer. L’IA serait-elle la nouvelle arme de destruction massive qu’on nous annonce ?

Certes, il existe des démiurges parmi les chercheurs sur l’IA. Partisans  de ce qu’on appelle l’intelligence artificielle « forte », ils cherchent à concevoir une machine capable de raisonner comme un être humain. Une telle machine, si elle existait, pourrait surpasser l’Homme, voire l’anéantir (rappelez-vous « 2001 l’Odyssée de l’espace »). Au stade actuel, peu de chercheurs croient cet objectif atteignable.

En revanche, l’intelligence artificielle « faible » met en œuvre des technologies sophistiquées (on appelle cela l’apprentissage profond ou « deep learning »), aujourd’hui presque banalisées, pour développer des outils qui aident les humains dans des tâches précises et complexes (faire le diagnostic d’une maladie, reconnaître un visage, comprendre le langage naturel, etc.). Ces outils font peser une menace sur quantité de métiers qu’ils peuvent exercer de façon plus fiable et moins coûteuse que les humains. On évoque couramment 10% des emplois qui pourraient disparaître et 50% qui pourraient être profondément transformés dans les prochaines décennies.

L’humanité a déjà connu de telles ruptures technologiques par le passé : le métier à tisser, la machine à vapeur, l’électricité, etc. qui ont provoqué de grands bouleversements dans les sociétés (rappelons-nous l’emblématique révolte des luddites au début du XIXe siècle). Faisons-lui confiance pour surmonter cette nouvelle rupture provoquée par l’IA.

On peut légitimement s’interroger sur les motivations des signataires d’une lettre récemment publiée appelant à un moratoire de 6 mois sur les développements de l’IA, au motif qu’elle ferait peser de graves risques sur l’humanité. L’un des plus connus (Elon Musk), son initiateur, fait peser un doute sur le désintéressement de cette démarche : co-fondateur d’OpenAI (société qui a produit ChatGPT et qu’il a quittée depuis), il développe par ailleurs ses propres recherches en IA au sein de Tesla. Sa démarche est-elle totalement transparente ? Elon Musk se soucie-t-il réellement du bien-être de l’humanité ? Ses travaux au sein de Neuralink sur l’« homme augmenté » sont-ils réellement éthiques ?

Revenons-en à ChatGPT. Aussi impressionnant et spectaculaire soit-il, il n’est jamais qu’un « perroquet stochastique » : gavé d’informations (grâce à l’apprentissage profond), il régurgite ce qu’il a appris en utilisant des modèles statistiques. Aucune espèce de magie, juste un algorithme qui crée un texte en repérant dans sa mémoire ce qui est la suite la plus vraisemblable aux mots précédents en puisant dans les milliards de textes déjà présents sur le web et dont on l’a « nourri ». N’attendons pas de lui qu’il invente de nouveaux concepts ou développe de nouvelles idées. Que du vieux ! Mais tellement bien « léché ».

Les outils sont neutres, amoraux. Seuls les usages qu’on en fait les rendent utiles ou… dangereux. Nous avons su signer des traités interdisant (ou, à tout le moins, limitant) l’usage de la force nucléaire. Ne pouvons-nous pas, de même, signer des traités sur l’usage de la « force » IA ?

Share

Ajouter un commentaire