Société

Une intelligence artificielle de Facebook a accidentellement inventé son propre langage

Une intelligence artificielle de Facebook a accidentellement inventé son propre langage

En programmant des chatbots pour qu'ils soient en mesure de négocier une vente, des chercheurs de Facebook se sont rendus compte que leur intelligence artificielle était capable de communiquer dans un tout nouveau langage.

Les chatbots peuvent faire beaucoup de choses pour nous. Ils peuvent raconter une blague, réserver une table pour deux au restaurant, ou écouter patiemment les insultes ou les phrases absurdes qu’on leur balance pour tester leur réaction.

Mais ils peuvent faire bien plus, comme viennent de le découvrir les chercheurs du Facebook Artificial Intelligence Research (FAIR), le lab de Mark Zuckerberg qui travaille sur le développement de l’IA : ils peuvent créer leur propre langage, indépendant et incompréhensible des humains.

Dans une nouvelle étude très technique publiée par le laboratoire, les chercheurs expliquent comment ils ont entraîné des chatbots – nommés "agents conversationnels" – à développer leur capacité à négocier entre eux. Grâce à un processus d’entraînement complexe, impliquant notamment des algorithmes de machine learning, ces chatbots ont développé la capacité de marchander des affaires (comme des ballons de basketball et des chapeaux) durant de longues heures.

L'intelligence artificielle qui dévie de son script

Au fur et à mesure de ces échanges, les chatbots ont ainsi dû développer de nombreuses ruses pour négocier avec leur adversaire – d’autres robots. Peu à peu, ils ont utilisé des tactiques commerciales qui n’avaient pas été programmées par les chercheurs du FAIR et se sont mis à s’exprimer de manière plus naturelle, moins saccadée et robotique, si l’on peut dire.

Jusqu’au moment où les chercheurs ont quitté le laboratoire, laissant les chatbots continuer à converser entre eux. Sans contrôle humain, les agents conversationnels ont totalement dérivé du script pour parler un langage entièrement nouveau, absolument incompréhensible pour nous. Une anomalie qui n’avait été prévue par les chercheurs.

"Construire des machines capables de tenir des conversations qui ont du sens est un défi parce que ça nécessite que le robot combine ce qu’il comprend de la conversation avec sa connaissance du monde et ainsi produire à chaque fois une nouvelle phrase qui fait sens", expliquent les chercheurs du FAIR dans un article de blog.

Mais plus l’on augmente les capacités des chatbots à tenir une conversion complexe, plus ils ont tendance à dévier du langage humain. "Les chercheurs ont découvert que la mise à jour des paramètres de deux chatbots conversant entre eux conduisait au développement d’un langage interne à la négociation entre les deux agents", expliquent encore les chercheurs de FAIR.

On en sait pas plus sur le contenu de ce langage ou de son format. Le but des chercheurs était de garder la mainmise sur l’évolution des négociations et ce qu'ils ont principalement retenu, ce sont les aptitudes inattendues de leurs chatbots à mener des négociations. Dans l'article, les chercheurs racontent même qu'à la fin de l'entraînement, ces petites intelligences artificielles et textuelles étaient capables de feindre de vouloir "sacrifier" un objet pour en obtenir un autre, dans une tentative presque désespérée d'obtenir un compromis à leur avantage. Retords, les bestioles robotiques.

Commentaires