Tay

La date du 24 mars 2016 restera dans les annales de l'intelligence artificielle comme celle d'un échec retentissant (mais qu'il faut relativiser) et très instructif.

La veille, Microsoft a lancé Tay, un logiciel d'intelligence artificielle spécialisé dans la conversation avec les humains (un "ChatBot"). Des logiciels de ce genre existent depuis 1966 avec Eliza. Ce qui est différent avec Tay, c'est qu'en plus de ses réponses programmées, il est capable d'apprendre de ses conversations avec les humains. C'est pourquoi il dispose d'un compte sur Tweeter et Facebook.

Si l'expérience a tourné court en moins d'une journée, ce n'est pas tellement à cause d'un échec de la technologie mais surtout à cause du comportement de plusieurs groupes d'humains qui se sont organisés pour la faire dérailler. Confrontée à des provocateurs, l'intelligence a appris la bêtise avec une rapidité étonnante. En quelques heures, ils ont réussi à lui enseigner toutes sortes de réponses incohérentes, voire même criminelles, nazies, racistes, négationnistes, complotistes, etc.

Tay2

24 heures après le début de l'expérience, Microsoft annonce que Tay va "se reposer" pour une durée indéterminée.

Pourquoi il faut relativiser cet échec.

Lorsqu'on y regarde de plus près, l'objectif initial était d'apprendre au logiciel les expressions préférées des adolescents et de simuler une personne qui partagerait leurs idées. Or il se trouve que plusieurs groupes d'activistes et de provocateurs se sont activement coordonnés sur Internet pour le faire dérailler en le nourrissant volontairement de discours antiféministes et haineux[1].

Au total, on peut donc considérer que l'expérience est une réussite sur le plan technique. Comme un(e) ado "ordinaire", entourée d'un grand nombre d'imbéciles, Tay a fini par leur ressembler. Il faudra donc trouver un moyen de l'éduquer et de lui donner des valeurs avant de relancer l'expérimentation. Une étape suivante serait de lui permettre de se construire ses propres opinions au lieu de boire bêtement celles qui lui semblent les plus séduisantes.

Qu'est-ce que ça nous dit de l'avancement de l'intelligence artificielle ?

Le premier réflexe pourrait-être de se dire quelque chose comme « Ouf ! Ça prouve bien que la Singularité est encore loin, c'est pas demain la veille que l'intelligence artificielle égalera l'homme ».

Mais on peut au contraire se dire que ce moment-là approche de plus en plus, puisqu'on en est déjà au stade où la question des valeurs éthiques (voire celle du libre examen) des robots n'est déjà plus une question philosophique purement théorique. Depuis le 24 mars 2016, c'est devenu un enjeu industriel et économique immédiat, sur lequel les meilleurs ingénieurs vont travailler d'arrache-pied.

Ceux qui tentent de se "rassurer" en se disant que le logiciel Tay n'était « pas plus intelligent qu'un perroquet dans un bar, répétant les propos des clients » commettent peut-être une erreur similaire, car un perroquet est déjà, dans l'échelle de l'intelligence animale, à un stade très avancé.


Pour aller plus loin: