L’intelligence artificielle Microsoft Tay “débranchée”

Partager cet article :

Le 24 mars 2016, le robot conversationnel Tay, de Microsoft, est volontairement désactivé après une série d’incidents.

Lancé sur les réseaux sociaux quelques semaines auparavant, Tay devait montrer ce qu’il était capable de faire en termes de robot conversationnel grâce à l’intelligence artificielle. Mais des internautes malintentionnés l’ont “formée” en lui faisant assimiler des contenus inappropriés, de sorte que Tay s’est mise à proférer des propos racistes et néo-nazis. Cet épisode marque les limites des logiciels conversationnels mais éclaire sur la vraie nature de ces nouveaux outils, par définition dépendant de leur apprentissage et de l’utilisation qui en est faite.

Partager cet article :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *