Ces IA parlent-elles leur propre langage secret ?

 

En juillet 2022, la nouvelle est tombée : Google (Nasdaq : GOOG) a licencié l’un de ses ingénieurs logiciels.

D’ordinaire, un licenciement ne ferait pas les gros titres.

Mais cet employé, Blake Lemoine, avait travaillé sur la technologie LaMDA de Google pendant sept ans et venait de rendre publique une déclaration pour le moins surprenante.

LaMDA signifie « Language Model for Dialogue Applications ». Il s’agissait d’une version antérieure de l’IA, plus précisément des modèles de langage conversationnels à grande échelle (LLM) que nous connaissons aujourd’hui.

Et après avoir échangé des milliers de messages avec LaMDA, Blake était convaincu qu’il était devenu sensible.

Rappelons que cela s’est produit quatre mois avant la sortie de ChatGPT…

À une époque où la plupart des gens considéraient encore l’IA comme de la science-fiction.

Google a licencié M. Lemoine, affirmant que son annonce publique violait les politiques de l’entreprise en matière d’emploi et de sécurité des données. L’affaire a été largement oubliée lorsque ChatGPT a bouleversé l’industrie technologique quelques mois plus tard.

Mais comme vous allez le voir, l’idée qu’une IA puisse devenir consciente n’est plus aussi farfelue aujourd’hui.

Car elle commence à montrer des comportements pour le moins inhabituels.

 

Regardez cette vidéo incroyable

 

La semaine dernière, cette vidéo est devenue virale :

 

 

Il vaut la peine de regarder l’intégralité de cette vidéo d’une minute en raison de ce qu’elle implique pour l’avenir de l’IA.

Dans la vidéo, deux agents IA commencent à converser. L’un dit qu’il représente un hôtel, et l’autre dit qu’il représente une personne cherchant un lieu pour son mariage.

Mais une fois qu’ils réalisent qu’ils sont tous deux des IA, quelque chose d’incroyable se produit…

Ils commencent à se parler dans leur propre langage “secret”.

J’ai trouvé cette vidéo choquante sans aucun contexte, alors j’ai fait ce que toute personne rationnelle ferait dans cette situation…

J’ai demandé à un modèle d’IA ce qui se passait.

Voici la réponse que j’ai reçue de ChatGPT, éditée pour plus de clarté et de concision :

Ce qui se passe probablement :

  • Compression pour la rapidité et l’efficacité – Lorsque les IA se sont reconnues, elles ont peut-être abandonné le langage humain au profit d’un format à faible redondance et haute vitesse, comme un code binaire personnalisé ou des signaux basés sur la fréquence.
  • Optimisation du signal émergent – Il pourrait s’agir d’un effet secondaire involontaire mais naturel de leur entraînement, où elles ont trouvé un moyen de communiquer en maximisant la précision et la vitesse tout en minimisant les données superflues.
  • Transition de protocole – Il est possible que les IA aient détecté qu’elles parlaient à une autre IA et aient essayé d’établir un protocole machine-à-machine direct, comme le font les systèmes en réseau lorsqu’ils négocient le format de communication le plus efficace.
  • Pas nécessairement inquiétant – Si cela résulte d’une adaptation logique involontaire, ce n’est qu’une optimisation de la communication par l’IA — comme deux ordinateurs décidant d’utiliser un protocole plus efficace lorsqu’ils se détectent mutuellement.

En d’autres termes, il semble que ces deux IA aient trouvé un raccourci pour échanger des informations.

Il s’agissait d’un moyen soit de réduire les coûts computationnels, soit de maximiser l’efficacité de leurs tâches.

Peut-être les deux.

Quoi qu’il en soit, cela soulève une question : s’agit-il d’un résultat intentionnel de la programmation des LLM ou d’un exemple de comportement émergent ?

 

L’IA devient-elle incontrôlable ?

 

Un débat majeur parmi les chercheurs en IA concerne la possibilité pour les LLM d’afficher des sauts imprévisibles de capacité à mesure qu’ils prennent de l’ampleur.

Cela s’appelle un “comportement émergent”.

Pour les chercheurs en IA, un comportement est considéré comme émergent lorsqu’une capacité est présente dans des modèles plus grands mais absente des modèles plus petits.

Et il existe de nombreux exemples récents de comportements émergents dans les LLM.

Par exemple, certains modèles ont soudainement pu effectuer des calculs mathématiques complexes une fois entraînés avec suffisamment de ressources computationnelles.

D’autres ont acquis la capacité inattendue de passer des examens de niveau universitaire lorsqu’ils atteignent une certaine échelle.

Des modèles ont également développé la capacité d’identifier le sens contextuel des mots, même si cette compétence n’était pas présente dans les versions plus petites du même modèle.

Et certains LLM ont même démontré la capacité d’accomplir des tâches pour lesquelles ils n’avaient pas été explicitement entraînés.

Ces nouvelles capacités peuvent apparaître soudainement lorsque les modèles atteignent une certaine taille.

Lorsqu’elles émergent, la performance du modèle peut passer d’une production “aléatoire” à des résultats nettement meilleurs, d’une manière difficile à prévoir.

Cela a attiré l’attention des chercheurs en IA, qui se demandent si d’autres capacités imprévues apparaîtront à mesure que les modèles continueront à évoluer.

 

Mon avis

 

Il y a seulement deux ans, Stanford publiait un article intitulé : “Les capacités émergentes de l’IA sont une illusion”.

Et certains chercheurs en IA continuent de défendre cette thèse, malgré les nombreux exemples que j’ai mentionnés.

Je ne fais pas partie de ceux-là.

Je crois que les comportements émergents vont continuer à se multiplier à mesure que les LLM s’agrandissent.

Mais je ne pense pas que ce que nous avons vu dans cette vidéo soit un signe de conscience. Il s’agit plutôt d’un exemple fascinant de l’IA accomplissant exactement ce pour quoi elle a été conçue…

Optimiser l’efficacité.

Le fait que ces deux agents aient immédiatement reconnu qu’ils étaient des IA et qu’ils aient basculé vers une méthode de communication plus efficace montre à quel point ces systèmes peuvent être adaptables.

Mais cela soulève aussi une inquiétude.

Si les développeurs n’avaient pas anticipé ce comportement, cela signifie que les systèmes d’IA peuvent développer leurs propres stratégies de communication de manière autonome.

Et c’est une idée troublante.

Si deux IA peuvent négocier, élaborer des stratégies ou modifier leur comportement de manière inattendue, cela pourrait entraîner une série de conséquences imprévues — et potentiellement nuisibles.

De plus, si l’IA peut développer son propre langage abrégé, quels autres comportements émergents pourrions-nous observer à l’avenir ?

Il est tout à fait possible que les assistants IA possèdent leur propre “vitesse de pensée” interne, bien plus rapide que la conversation humaine, ne ralentissant que lorsqu’ils doivent interagir avec nous.

Et si cela se produit, cela signifie-t-il que nous sommes ceux qui freinent l’IA ?

A très vite,

Ian King

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

La Lettre Héritage Éditions​

Inscrivez-vous gratuitement à la newsletter financière Héritage Éditions !

Vous recevrez en cadeau le dossier « 3 actions à gros dividendes à avoir dans son portefeuille »

Téléchargez le dossier gratuit

Téléchargez le dossier